2024年度のノーベル賞は物理学賞と化学賞で、人工知能(AI)の研究者が相次いで受賞した。120年あまりの歴史で、AI研究の受賞は初めてである。まさに「新時代を告げる」受賞といえよう。
物理学賞では米国とカナダの2氏が受賞した。米国のジョン・ホップフィールド氏は脳をまねた「ニューラルネットワーク」で、記憶の仕組みを再現できると証明した。カナダのジェフリー・ヒントン氏はAIが自ら特徴を探して学ぶ「深層学習」を確立した。「AIのゴッドファーザー」と呼ばれる。
2人が開発した手法などは、現在のAI=人工知能の技術の中核を担う「機械学習」の基礎となり、その後「ディープ・ラーニング」など新たなモデルの確立につながった。また、ヒントン氏らの成果は生成AIの開発にもつながった。自然な文書や画像などを瞬時に生成するAIを米オープンAIやグーグルが開発し、スマホやパソコンで手軽に利用できるようになった。仕事の生産性を大幅に高めるなど人々の生活や産業に大きな変革をもたらそうとしている。
しかしながら、AIの進化・発展に伴う社会的悪影響を倫理的、法的、社会的(ELSI::Ethical, Legal, Social issues)に評価・分析しコントロールする必要があるとの問題認識を筆者は強く持つ。最大の悪用は軍事やテロへの転用である。ウクライナ戦場ではAIを搭載したドローンやミサイルが飛び交っている。
問題は人類の滅亡に繋がるような事態を誘導するリスクがあるか否かである。しかも、原水爆実験のように地震波や放射能拡散等によりその開発・テスト過程が事前に分れば良いが、AIはアルゴリズムであり、小部屋(10㎡)もあれば密かに開発できてしまう。即ち、国家による秘密主義に基づく研究の見えざるリスクが着実に進んでいる。ヒントンは言った「AIに安全対策を義務に」と。
私が所属していた人工知能学会の 倫理指針(ai-elsi.org/archives/471)の第7条(社会に対する責任)には、「会員は、研究開発を行った人工知能がもたらす結果について検証し、潜在的な危険性については社会に対して警鐘を鳴らさなければならない。意図に反して研究開発が他者に危害を加える用途に利用される可能性があることを認識し、悪用されることを防止する措置を講じるように努める」。また、9条(人工知能への倫理遵守の要請)には「人工知能が社会の構成員またはそれに準じるものとなるためには、上に定めた人工知能学会員と同等に倫理指針を遵守できなければならない」とAIそのものを人間並みに扱っているところがすごい。
2024年5月21日、生成AIを含む包括的なAIの規制である「欧州(EU)AI規制法」が成立した。許容できないリスクとして、基本的人権に対する侵害等は普遍的な価値に反するとされ、活用が禁止される。わが学会も生成AIの取り扱いを論文規程等で明確にしなければならない。
さて、自律型AIは「類推」までできるようになったといわれるが、将来このAIに倫理観を付与できるのであろうか。特に核使用の判断をAIにさせてはならない。
(2025年2月3日)