AI & War
19 世紀最大の大量破壊兵器はダイナマイトだった。20 世紀最大の大量破壊兵器は核兵器だった。21 世紀の大量破壊兵器は AI である。・・・といわれている。この問題を議論する番組を昨日(4 / 17) の TV ( BS TBS の「報道1930」) でやっていた。TV でこの問題を本格的に取り上げたのはおそらく初めてだと思う。
今回アメリカがイランをミサイル攻撃をした時、ターゲットになったのが小学校で、百数十人の子供が犠牲になった。他にも数千人の一般市民が犠牲になった。その攻撃を決定したのは人間ではなく AI だった。その AI はアメリカ軍が普段から使っている「アンソロピック」という会社の「クロード」というAI だったそうだ。
すると、アンソロピック社は、そんな非人道的なことに自社の AI を使うなという抗議をアメリカ政府にした。それに対してトランプ大統領は怒って、アンソロピック社の AI はもう使わないという決定をした。
という話しから始まり、番組では「AI が人間を使うのか、人間が AI を使うのか」という問題設定で議論していた。その中で、あるアメリカの研究者がやったシミュレーションを紹介していた。それは、21 社の AI に架空の戦争の課題を与えて、核兵器を使うかどうかの判断をさせるというもの。すると21 社のうちの 20 社の AI が「使う」という判断をしたという。倫理観というものがない AI を戦争に使うことの危険性を示していた。
その時、ひとつだけ核兵器を使わないと判断したのが上記アンソロピック社の AI だった。同社には、専属の哲学者がいて、 AI に何が正しくて何が悪いことかを教えているという。それによって AI が倫理観を持つように育てていくことが目的だという。
しかしこれはあまり意味がないと思う。何が正しいかの基準は人によって違うから、人命よりも戦争に勝つことの方が正しいことだと思う人が AI のアルゴリズムを作れば、そういう AI ができてしまう。やはり AI がなんと言おうと最終判断をするのは人間であるべきだというのが正しい考え方だろう。
なおこの問題について以前にも書いたので参考まで→https://saitotomonaga.blogspot.com/2025/10/ai.html
0 件のコメント:
コメントを投稿