ユーザーの関心を保護する:DesignforTrustの3つのコア原則 – venturebeat.com


AI/MLシステムにはバイアスの例が数多くあります。
技術クリエーターがAI/MLシステムの精度と公平性を向上させるための措置を講じているとしても、システムがどのように意思決定を行い、結果を生み出すかについての透明性は依然として不足しています。
しかし、AI / MLシステムによる決定が深刻な結果をもたらす場合、医療診断、自律型自動車などのセーフティクリティカルシステム、ローン承認など、システムがどのように決定したかを説明できることが不可欠です。
今日、説明可能性は、システムの設計のドキュメントと、システムが意思決定を行うために通過するプロセスの監査証跡を作成するシステムを開発した人々によって達成されることがよくあります。
システムが財務、法律、および倫理の要件と基準を満たしていることを確認するための、システムのデータ、モデル、アルゴリズム、使用法、学習、および結果の徹底的かつ継続的なテスト
人間が理解できる形式でシステムがどのように実行されているかについてのソースモデルと監査証跡を作成および維持し、必要に応じて利用できるようにします

コメント

タイトルとURLをコピーしました