「我々は、あらゆるAI研究機関に対してChatGPT-4よりもパワフルなAIシステムのトレーニングを今すぐ少なくとも6か月の間、停止するよう要求する」──米国の非営利団体(フューチャー・オブ・ライフ・インスティチュート)は3月22日、このような趣旨の書簡を公開。4月3日現在、イーロン・マスク、アップルの共同創業者であるスティーブ・ウォズニアックをはじめ、3000人を超える著名人、専門家たちから署名を集めている。
ChatGPT-4の何が問題なのか。
ChatGPT-4は、話しかけると人間のように答えてくれる自動会話プログラムに過ぎない。問題は、“開発が急ピッチで進み、話しかけてくれる相手(AI)が人間をはるかに超えるほど優れた頭脳を持ってしまった場合、人間がコントロールできなくなってしまったり、人類を敵視して滅ぼそうとするリスクが無視できなくなった”という点にある。
AIの記憶力、計算力は到底人間の及ぶところではない。それは将棋のトップ棋士がAIに全く歯が立たないといった現実から容易に想像できよう。しかし、AIには推測する力、創造する力が乏しく、感情、自我などはない。そうした人間の本質に当たるような部分をAIが獲得するのは難しいのではなかろうか。多くの人がそう信じている。
しかし、人間の脳神経細胞の仕組み模して造られたニューラルネットワークを多層に結合させて使う深層学習と、人間によるフィードバックを利用した強化学習(RLHF)を組み合わせた方法が大きな成果を収めはじめており、この最新モデルを利用したChatGPT-4は、米国の司法試験(模擬)で受験者の上位10%に入るほどの頭脳レベルに達している。GPT-4がこの先、進化を続け、5や6となったときに、シンギュラリティ(人間の脳とAIが同じレベルになる点)を迎える可能性があるかもしれない。
ChatGPT-4を開発するOpenAIのCEOであるサム・アルトマンは3月25日、ブロガーとの2時間を超えるインタビュー(YouTube上で公開)において、「AIが人類を滅亡させる可能性がある」といった意見を否定できないと言っている。