2025年5月1日木曜日

AI が面接?

 NEXUS : A Brief History of Information Network from Stone Age to AI

最近、企業が業務に AI を活用することが増えている。先日も学生の採用にまで AI を使い始めた企業のニュースがあった。学生がオンラインで AI の面接を受けている。人間と違って偏見のないAI が面接することで、公正・公平な評価ができるというのだ。

しかし・・・ユヴァル・ノア・ハラリは「NEXUS 情報の人類史」で、この問題を取り上げている。そして、果たして本当に AI は中立的で公正な判断をできるのか? について疑問を投げかけている。

そして面白い例を紹介している。アメリカの MIT が、 AI の顔認識の精度について研究した結果、そこに人間の人種差別的な偏見がはっきり反映されているというのだ。白人男性の識別では非常に正確だが、黒人女性の識別では、はなはだしく不正確だったそうだ。理由は、AI が学習して得たデータベースがすでに人間的な偏見が反映されているからだ。 AI がディープラーニングで学習したのは、世の中にある既存の画像で、それは白人男性の割合が圧倒的に多く、黒人女性の割合は非常に少ない。

この場合、重要なのは、人種差別的で女性蔑視的な偏見を持ったエンジニアが、そのアルゴリズムを作ったわけではない、ということだ。 AI は生まれたての赤ん坊と同じで、初めは何もものを知らない。しかし学習するという能力は持っているから、親の振る舞いなどを観察して、そこから学び、知識を得ていく。だから世の中に差別や偏見があるば、それも素直に学んでいく。 AI も同じで、差別や偏見のあるデータベースが出来上がってしまう。

実際に Amazon が、 AI による求職者の選別用アプリを開発した時にそれが起こったという。求職申込書に「女性」や「女子大卒」などの言葉が含まれていると、一貫して低く評価し始めたそうだ。既存のデータがそのような申込書が通りにくいことを示していたので、 AI はそれを素直に取り入れたのだった。 Amazon はこれを修正しようとしが、うまくいかずこのアプリの使用を中止したそうだ。

以上のようなことから、「NEXUS 情報の人類史」で、ユヴァル・ノア・ハラリは、 AI の「無謬性」を信じるなと警告している。 AI の言うことは「正しい」が、それは世の中の多数意見と合っているという意味で「正しい」だけで、本当の意味で人間にとって「正しい」とは限らない。そのことを上記の例が示している。


0 件のコメント:

コメントを投稿