AI が急成長する中、アルゴリズム システムのリスクを軽減することは必須である、と新しい ACM ブリーフは述べています from venturebeat.com


より安全なアルゴリズム システムを推進するには、政府内と組織内の両方で、内部および独立した人間中心の監視メカニズムが必要です。
AI システムにはセーフガードと厳格なレビューが必要
AI や ML テクノロジーを超え、人、組織、管理構造が関与するアルゴリズム システムは、膨大な数の製品やプロセスを改善してきましたが、安全でないシステムは深刻な害を及ぼす可能性があると彼は指摘しました (自動運転車や顔認識を考えてみてください)。
シュナイダーマンは、より安全なアルゴリズム システムを作成することを、リスクはあるものの一般的に安全であると認められている民間航空と比較しました。
より安全なアルゴリズム システムへの取り組みは、AI の倫理に焦点を当てることからの転換である、と彼は付け加えました。
ACM の概要によると、組織はヒューマン ファクター エンジニアリング (つまり、システムが実際にどのように機能し、人間が制御を行うか) を取り入れた安全文化を開発する必要があり、これをアルゴリズム システム設計に織り込む必要があります。

コメント

タイトルとURLをコピーしました