ChatGPT、Galactica、プログレス トラップ from WIRED(Ideas)


ChatGPT (質問応答型チャットボット) や Galactica (科学論文を書くためのツール) のような大規模言語モデル (LLM) のリリースにより、これらのモデルができることについての古い会話の新しい波がやってきました。
これは今日のモデルの問題であり、モデルのサイズと複雑さが増すにつれて改善されないまれな言語スキルの 1 つです。
この時点で、これらのモデルの潜在的および実現された害のいくつかが徹底的に研究されています.たとえば、これらのモデルは堅牢性に深刻な問題があることが知られています。
これは、モデルがトレーニング データから機密性の高い個人情報を記憶する方法や、モデルがエンコードする社会的固定観念など、安全で効果的な展開に対する十分に文書化された多くの障害に追加されるものです。
モデル ビルダーと技術エバンジェリストは、印象的で一見完璧に見える出力を、神話上の自律モデルである技術的驚異のおかげだと考えています。
その結果、機能障害と差別的な結果の両方が、エンジニアリングの選択を欠いているものとして組み立てられています.社会全体またはおそらく「自然に発生する」データセットのせいであり、これらのモデルを開発する人々はほとんど制御できないと主張します.しかし、彼らが主導権を握っていることは否定できず、現在目にしているどのモデルも避けられないものではありません。

コメント

タイトルとURLをコピーしました