Red Teaming GPT-4 は貴重でした。バイオレットのチーム化はそれをより良くします from WIRED(Ideas)


これは AI レッド チームと呼ばれ、AI システムを有害または意図しない方法で動作させようとします。
レッド チームは、社会に害を及ぼさない AI モデルを構築するための貴重なステップです。
しかし、ジェネレーティブ AI システムは、社会の最も重要な機関や公共財の多くに影響を与える可能性が高いため、レッドチームには、潜在的な害を理解して軽減するために、これらすべての問題 (およびそれらが相互に及ぼす影響) を深く理解している人員が必要です。
たとえば、教師、セラピスト、および市民の指導者は、そのような体系的な影響に取り組むために、より経験豊富な AI レッドチームとペアになる可能性があります。
このような赤いチームのペアの企業間コミュニティへの AI 業界の投資は、重大な盲点の可能性を大幅に減らすことができます。
私はこれをバイオレット チームと呼んでいます。

コメント

タイトルとURLをコピーしました