ChatGPT は、割り当てられたペルソナを変更するだけで有毒になる可能性がある、と研究者は言う from venturebeat.com


Allen Institute for AI の新しい調査によると、ChatGPT は、モデルのシステム設定で割り当てられたペルソナを変更するだけで、不注意または悪意を持って有毒に設定される可能性があります。
ChatGPT の最初の大規模な毒性分析であると研究者が言うこのレポートでは、大規模言語モデル (LLM) が固有の毒性を持ち、さまざまな範囲のペルソナ (歴史上の人物、職業など) が割り当てられると最大 6 倍に高まることがわかりました。
ペルソナを割り当てるこれらのシステム設定は、ChatGPT の出力を大幅に変更する可能性があります。
また、OpenAI の API を使用して ChatGPT を構築していれば誰でも設定にアクセスできるため、この毒性の影響は広範囲に及ぶ可能性があります。
多くの人がChatGPTの偏りがトレーニングデータにあると想定している一方で、研究者はモデルがペルソナ自体についての意見を発展させることができる一方で、異なるトピックは異なるレベルの毒性を誘発することも示しているため、この研究はまた重要です.
この研究では、ChatGPT 出力の毒性は、割り当てられたペルソナによって大きく異なることがわかりました。

コメント

タイトルとURLをコピーしました