クロードAIは有害または虐待的と判断された会話を終了できるようになりました from CNET(Products)

クロードAIは有害または虐待的と判断された会話を終了できるようになりました from CNET(Products) 海外記事要約

クロードAIは有害または虐待的と判断された会話を終了できるようになりました from CNET(Products)


アントロピックは、稀ではあるものの、継続的に有害または虐待的な状況において、人工知能モデルが会話を終了できる新たな安全機能を発表しました。
この機能は、自傷行為や他者への危害の差し迫ったリスクがあるユーザーを対象としています。
同社は「これは継続的な実験であり、今後もアプローチを改良していきます」と述べています。
ただし、ユーザーは後から中断されることなく、別の会話を開始できます。

コメント

タイトルとURLをコピーしました