AIチャットボットが大きくなり、倫理的な危険信号が大きくなりました from WIRED(AI)


各評価は AI モデルへの窓であり、常にどのように機能するかを完全に読み取るものではないと Solaiman 氏は言います。
しかし彼女は、AI が引き起こす可能性のある危害を特定して阻止できるようにしたいと考えています。
ブレークスルーを企業秘密として守る企業は、AI の最前線に、ほとんどリソースを持たない周縁化された研究者が近づきにくくすることもできる、と Solaiman は言います。
Tamkin 氏は、内部評価が不十分な傾向にあるため、外部 AI 監査サービスは、AI を基盤とする企業と共に成長する必要があると考えています。
ミシガン大学の AI 倫理および政策センターの研究責任者である Merve Hickock は、企業に AI の誇大宣伝を脇に置いたり穴をあけたり、自らを規制したり、倫理原則を採用させたりするだけでは十分ではないと述べています。
ヒコック氏は、ヨーロッパの議員が、Google、Microsoft、OpenAI などの企業によって作成されたモデルに関連する損害に対する責任をどのように扱っているかを見ることに特に関心があると述べました。

コメント

タイトルとURLをコピーしました