GPT-4では、「確率的オウム」の危険性が残っていると研究者は言います. OpenAI の CEO が「少し怖がっている」のも不思議ではありません | AIビート from venturebeat.com


2021 年 3 月の AI 研究論文「確率的オウムの危険性について: 言語モデルが大きすぎる可能性はありますか」の著者から入手しました。
その出版がその著者の 2 人、Google の倫理研究者である Timnit Gebru と Margaret Mitchell の解雇につながってから 2 年後、GPT などの LLM のリスクに関する現在の議論の前兆と思われる論文を振り返る時が来ました。
「確率的オウムの危険性」はこれまで以上に関連性が高いと著者は言う
「この取り組みはすべて、これまで以上に大きな言語モデルに向けられていると思います。すべてのリスクが論文に記載されていますが、それらのリスクを無視して、私たちは本当に理解できるものを構築していると言っています」と Bender 氏は述べています。
研究者が「確率的オウムの危険性について」を書いたとき、ミッチェルは、深層学習は言語モデルが離陸しようとしている時点にあることに気付いたと述べましたが、それでも害やリスクの引用はありませんでした.
「私は、今これをしなければならない、さもなければ引用がそこにないだろう、そうでなければ、議論はまったく別の方向に進み、実際には、非常に明白な害とリスクのいくつかに対処したり、認めたりしないだろう.たとえば、言語知覚の認知的および心理的側面に関する私の論文の仕事から知っています」ミッチェルは回想します。

コメント

タイトルとURLをコピーしました