スタンフォードの最近のAI会議がAIの説明責任の状態について明らかにしたこと – venturebeat.com


AIとデータリーダーに参加して、洞察に満ちた講演と刺激的なネットワーキングの機会を手に入れましょう。
AIの採用が指数関数的に増加し続けるにつれて、説明責任のあるAIに関する議論(および懸念)も増加します。
技術リーダーやフィールド研究者は、倫理的で安全かつ包括的なAIを開発することの重要性を理解していますが、それでも、説明責任を損なう規制の枠組みや「倫理の洗浄」または「倫理のシャーク」の概念に関する問題に取り組んでいます。
おそらく最も重要なのは、概念がまだ明確に定義されていないことです。
たとえば、米国国立標準技術研究所の人工知能リスク管理フレームワークから欧州委員会のAIに関する専門家グループまで、提案されたガイドラインとツールのセットは多数存在しますが、それらはまとまりがなく、あいまいで過度に複雑であることがよくあります。

コメント

タイトルとURLをコピーしました