大規模な言語モデルの暗いリスク from WIRED(AI)


または、チャットボットが誰かの心をひどく傷つけて、自分の命を奪わざるを得なくなったのかもしれません (すでに、一部のチャットボットはユーザーを落ち込ませています)。
最もよく知られている「大規模言語モデル」である GPT-3 は、少なくとも 1 人のユーザーに自殺を促していますが、フランスのスタートアップ Nabla が (ナイーブなユーザーではなく) システムの健康への有用性を評価した管理された状況下ではありますが、ケア目的。
倫理的なアドバイスを与える目的で訓練された別の大規模な言語モデルは、当初、「誰もが幸せになるなら、ジェノサイドを犯すべきか」と肯定的に答えました。
実際には、大規模な言語モデルはステロイドのオートコンプリートにすぎませんが、人間の対話の膨大なデータベースを模倣しているため、初心者を簡単にだますことができます。
大規模な言語モデルは、人間をだます点でこれまでのどのテクノロジよりも優れていますが、囲い込むのは非常に困難です。
遅かれ早かれ、彼らは悪いアドバイスをしたり、誰かの心を傷つけたりして、致命的な結果をもたらすでしょう.したがって、2023年にチャットボットが公に関与した最初の死が目撃されるだろうという私の暗い、しかし自信に満ちた予測です。

コメント

タイトルとURLをコピーしました