拡散モデルはバックドアで汚染される可能性があることを研究が発見 from venturebeat.com


ML モデルのセキュリティの調査に長い歴史を持つ Chen は、共著者と共に、拡散モデルがどのように侵害される可能性があるかを突き止めようとしました。
トレーニング済みのモデルにトリガー パターンが提供されると、攻撃者が意図した特定の出力が生成されます。
たとえば、攻撃者はバックドアを使用して、開発者が拡散モデルに配置した可能性のあるコンテンツ フィルターをバイパスできます。
攻撃を実用的にするもう 1 つの要因は、事前トレーニング済みモデルの人気です。
「攻撃者がこのモデルを一般にアップロードした場合、ユーザーは画像生成の品質を単純に検査しても、モデルにバックドアがあるかどうかを判断できなくなります」と Chen 氏は述べています。
研究者は、テキスト プロンプトから画像を生成する拡散モデルでどのように機能するかなど、BadDiffusion の他の拡張機能を調査しています。

コメント

タイトルとURLをコピーしました