深層学習、ニューラルネットワークといった分野の研究における第一人者で2024年にノーベル物理学賞を受賞したトロント大学のジェフリー・ヒントン名誉教授は、イギリスのラジオ番組のインタビューにおいて「我々はこれまで自分よりもさらに聡明な存在と対峙する必要はなかった。知能の低いものが知能の高いものをコントロールすることに成功した例があるだろうか。ほぼないだろう。唯一の例外は母親と幼児との関係であろうが、それは数百万年の進化を経てようやく実現できたものである」などと発言している(The Guardian・2024年12月7日、香港メディア・unwire.hkなどより)。
今後、人類は先進的なAIと比較すれば3歳の子供のような立場に置かれると例えており、「自分と3歳の子供との間の知的レベルの違いを想像してみればわかるだろう。人類はAIに対するコントロール力を失いかねない」と説明している。先日も、「AIに関する技術革新の速度は人々が予想する以上に早く、AIが30年以内に人類を絶滅に導く可能性は10~20%だ」と発言している。それまでの10%といった予想を引き上げており、AI開発を拙速に進めることのリスクについて強く警告している。
一方、2022年11月、OpenAIが生成AIの大規模言語モデル(LLM)であるChatGPTを公開して以降、AI開発のスピードが急速に高まっている。Googleが2017年6月に発表した深層学習モデル(Toransformer)において、時系列データを逐次処理するのではなく、多くの処理作業を並列化させることに成功、OpenAIはこのモデルを基礎に、学習データ量を充実させるとともにニューラルネットワークのパラメータを大きく増やすことで質の高いLLMを生み出した。それがGoogle(グーグル)、Microsoft(マイクロソフト)、Meta(メタ)といった競争相手を巻き込み、現在の熾烈な設備投資競争を引き起こしている。AI設備投資でもっとも重要な部品はGPUだが、最先端GPUで極めて高いシェアを持つNVIDIA(エヌビディア)の業績が急拡大し、株価が大きく上昇、2023~2024年にかけてそれがグローバル株式市場で大きな話題の一つとなった。
ジェフリー・ヒントン名誉教授のほか、イーロン・マスク氏もAIのリスクについて大きな懸念を持っており、無制限の開発競争が進むことに反対の立場を示しているが、世界の潮流はむしろ、開発競争が加速する方向に向かっている。