財団モデルは、「完全な秘密」を達成するのに役立つ可能性があります from venturebeat.com


公開データと非公開データが混在する個人的なタスクをデジタル アシスタントが容易にすることを期待する場合、特定の状況では、「完全な機密性」または可能な限り最高レベルのプライバシーを提供するテクノロジが必要になります。
最近、彼らは、新しい基盤モデル (大量の公開データでトレーニングされた大規模な ML モデル) が、この差し迫ったプライバシーの問題に対する答えを保持しているかどうかの調査に着手しました。
これは、モデルのパフォーマンスと情報のプライバシーの間のトレードオフを管理します。
Arora は、GPT-3 のような基本モデルが、多くの場合、追加のトレーニングを必要とせずに、簡単なコマンドから新しいタスクを実行できることを確認したとき、現状よりも強力なプライバシーを提供しながら、これらの機能を個人のタスクに適用できるかどうか疑問に思いました。
FOCUS は、個人データのプライバシーを提供するだけでなく、モデルが実行するように求められた実際のタスクと、タスクがどのように完了したかをさらに隠します。
「漏えいした機密情報がすでに含まれている Web データで基礎モデルをトレーニングすると、まったく新しい一連のプライバシーに関する懸念が生じます」と Arora 氏は認めています。

コメント

タイトルとURLをコピーしました