不発の政府データマシンの内部 from WIRED(AI)


アルゴリズムは民族性と性別に基づいて差別することがわかりました。
インタラクティブな記事では、アルゴリズムの根幹を掘り下げ、2 つの仮説的な例を示して、人種や性別はアルゴリズムに入力される要素ではありませんが、人のオランダ語能力などの他のデータはプロキシとして機能できることを示しています。
「政府は何年もの間、スプレッドシートであろうと高度な機械学習であろうと、システムにアルゴリズムを組み込んでいます」と、プロジェクトに携わった WIRED の調査データ レポーターである Dhruv Mehrotra は言います。
ロッテルダムのアルゴリズムによって引き起こされた調査の影響は、尋問に直面した 3 人の子供の母親の場合に見られるように、悲惨なものになる可能性があります。
「アルゴリズムが公平であればOKだとは言いたくない」
アルゴリズムをより公平にすることは、場合によっては事態を悪化させる可能性があります。

コメント

タイトルとURLをコピーしました