不正検出ビジネスには汚い秘密があります from WIRED(AI)


しかし、まずチュルチッチは、システムがどのように機能するかを知る必要があります。
2017 年、アクセンチュアは、オランダのロッテルダム市がすべての福祉受給者のリスク スコアを計算するシステムを開発するのを支援しました。
Lighthouse Reports と WIRED が入手した元のプロジェクトを説明する会社の文書は、アクセンチュアが構築した機械学習システムを参照しています。
ロッテルダムの当局者は、ロッテルダムの研究およびビジネス インテリジェンス部門のチームがアルゴリズムの開発を引き継いだ 2018 年まで、アクセンチュアのシステムが使用されていたと述べています。
Lighthouse Reports と WIRED がロッテルダムの不正アルゴリズムの 2021 年版を分析したところ、このシステムが人種と性別に基づいて差別していることが明らかになりました。
しかし、最終決定を下す前にこれらのシステムによって警告された人々を調査するように求められたソーシャルワーカーは、必ずしも独立した判断を行っているとは限らないと、キャンペーングループPrivacy Internationalの英国の福祉システムでアルゴリズムを研究した技術政策コンサルタントのEva Blum-Dumontetは述べています。

コメント

タイトルとURLをコピーしました