
ブルームバーグによる調査では、検索拡張生成 (RAG) システムが大規模な言語モデルの安全性を低下させる可能性があることが判明しました。
研究者らは、RAG が導入されていないと、文書自体が十分に安全で答えられる場合でも、悪意のあるクエリが拒否される可能性があることを発見しました。
これにより、企業全体に展開されている AI ソリューションの安全でない対応が発生する可能性があります。
ただし、注目すべきは、この研究が生成 AI だけに関連しているわけではなく、組織内の安全アーキテクチャやアプリケーションに対する生成 AI の潜在的な影響にも関連していることです。


コメント