pdmk0830のブログ

妻のパーキンソン病との闘いと、その介護の日々の生活の記録

20230503wed ショッキングなニュース:『悪用を防ぐ方法が見つからない』

「AIの第1人者:ヒントン氏」がAI研究を後悔し
「危険性話すため」Googleを退社したとのこと。
今日の読売朝刊で知った。


ヒントン氏の当面の懸念は、
生成AIの普及により、ネット上に偽の画像や文章が溢れ、
一般人が「何が真実か分からなくなること」。
また、AIが雇用市場を根底から覆すことも危惧しており、
ChatGPTのような生成AIは人間の仕事を補完しているが、
パラリーガル(法務関係の仕事)やパーソナルアシスタント、翻訳者など定型的な仕事をしている人に取って代わる可能性があること。
また、
AIは膨大なデータを分析し、人間が予期していない行動も学習することから、将来的には人類を脅かす存在になる可能性、
もし、企業がAIにコードを生成させるだけでなく、
実際にそのコードを実行させるハードウェアを与えれば、
真の自律兵器、つまりヒントン氏が恐れる殺人ロボットが現実のものになる可能性、
そして、
ヒントン氏はGoogleやMicrosoftなどの大企業の競争が世界的なものに発展し、
国際的な規制も行われなければ、
開発競争に歯止めをかけることはできなくなる可能性がある
とも述べている。


「AIの脅威は核兵器に匹敵すると」と唱える人がいるが、
開発に大規模な核実験が必要な核兵器とは異なり、
秘密裏に研究が進められるAIの存在を人々が知るすべはない
とも指摘している。


そして、そのヒントン氏が、
『悪用を防ぐ方法が見つからない』
と言っていることに驚いた。


G7デジタル・技術相会合でAIの規制のあり方について議論されたが、
心許ない。(テロには、その規制も通じない。)
不安情報の急拡大・急増福で瞬時に大銀行が破綻してしまうようなネット社会で、
生成AIによる実しやかな偽情報で全世界が大混乱してしまうこともないとは言えない。


生成AIの開発と同時に、ロバストな環境の開発も欠かせないと思う。