人類が理解できていない部分を数字化、数式化する可能性
人類は全ての知的活動を数字や数式に置き換えることを基礎として科学技術を発展させてきた。現在、音声(聴覚)であっても、二次元の画像、三次元の立体画像(視覚)であっても、数字、数式に置き換えることができるようになった。しかし、推測することや、ひらめき、心の動き、自我などについては、その仕組みがよくわからず、数字、数式に落とし込んで表現することができないでいる。
しかし、膨大なデータを与えてそれをひたすら学習させることを続けていたら、いつかAIは、人類が理解できていないそうした部分を数字化、数式化してしまうかもしれない。あるAIが自我を獲得してしまい、もしそれが悪意に満ちたものであった場合、世界は一瞬にして危機に陥ってしまう可能性がある。
AIの進化に関するリスクはもっと身近なところにもある。
イタリアは3月31日、ChatGPTの使用を一時的に禁止すると発表した。データ収集の方法で違法行為があったようだが、ChatGPTは大量のデータの読み込みを必要とするだけに、プライバシーの問題は深刻だ。
AIが人類の仕事を根こそぎ奪ってしまう可能性もある。ChatGPT-4は既に新米弁護士並みの仕事ができるとみられるレベルに達している。今後、高性能のAIと高機能の機械を組み合わせれば、あらゆる面で人間の能力を超えてしまうかもしれず、それは人類が文明そのものを失うことにもつながりかねない。
前述の書簡では、すべての研究機関、研究者は開発に当たって、AI研究指針の方向性、倫理原則を示した「アシロマAI原則」に従うべきであり、それを徹底させるために必要であれば国家が介入すべきだとしている。無秩序で、成果だけを全力で追求するようなやり方はAIの暴走を招きかねない。性悪説に立てば、倫理感の欠如した悪意に満ちたAIの生成を防ぐには強い強制力が不可欠だ。
AI開発によるリスクは、たとえば、遺伝子組み換え実験によるバイオハザードのような容易に想像できるようなリスクではない。規制を求める世論は簡単には高まらず、各国政府の動きは鈍いだろう。また、米国が規制を加えたとしても、もう一つのAI大国である中国が簡単に同調するとは思えない。
AIを全面的に活用した便利で豊かな世界の創生は人類滅亡と紙一重なのかもしれない。
文■田代尚機(たしろ・なおき):1958年生まれ。大和総研で北京駐在アナリストとして活躍後、内藤証券中国部長に。現在は中国株ビジネスのコンサルティングなどを行うフリーランスとして活動。楽天証券で「招財進宝!巨大市場をつかめ!今月の中国株5選」を連載するほか、ブログ「中国株なら俺に聞け!!」も発信中。