2025年12月9日火曜日

AI のバイアス

AI bias 

 AI の普及で最近、企業が学生の採用にまで AI を使い始めていて、学生がオンラインで AI の面接を受けている。人間が面接すると、例えば女性の場合、容姿が評価に影響するなどの偏見が生じやすい。しかしAI が面接すれば、そういうことがなく、公正・公平な評価ができるというのが AI を使う理由になっている。しかし本当にそうなのか多くの疑問が指摘されている。

そもそも AI は人間が作ったデータベースを学習して、それをもとに物事を判断する。だから、データベース自体に人間の偏見がまぎれこんでいると AI もそれを学習して偏見のある判断をする。アメリカのある企業が求職者の採用の AI アプリを開発したが、年齢や性別や人種などに対する、人間の偏見の影響を取り除けなかったという。

だいたい以上のようなことを半年ほど前に書いた。(「AI が面接?」2025. 5. 1.)→ https://saitotomonaga.blogspot.com/2025/05/ai.html


先日、この問題について、人間の偏見(バイアス)が AI の判断に入り込まないようにするデータベースをソニーが開発したという報道(日経新聞、12 / 3)があった。従来は例えば女性の写真を AI に見せて、「この人の職業は何?」と尋ねると、その顔がおばさんぽかったりすると「主婦」と答える。「主婦」のイメージに対する人間の固定観念が AI に反映しているからだ。この新しいデータベースでは、「主婦」の写真を、人種・性別・年齢・容姿などの偏りなく収集して、 AI が偏見を持たないようにしている。それを「脱バイアス」のデータベースと呼んでいる。



0 件のコメント:

コメントを投稿