Мы используем файлы cookie.
Продолжая использовать сайт, вы даете свое согласие на работу с этими файлами.

人工知能

Подписчиков: 0, рейтинг: 0

人工知能: artificial intelligence)、AI(エーアイ)とは、「『計算computation)』という概念と『コンピュータcomputer)』という道具を用いて『知能』を研究する計算機科学computer science)の一分野」を指す語。「言語理解推論問題解決などの知的行動人間に代わってコンピューターに行わせる技術」、または、「計算機(コンピュータ)による知的な情報処理システム設計や実現に関する研究分野」ともされる。大学でAI教育研究は、情報工学科情報理工学科コンピュータ科学専攻などの組織で行われている(工学〔エンジニアリング〕とは、数学・化学・物理学などの基礎科学を工業生産に応用する学問)。

日本大百科全書(ニッポニカ)』の解説で、情報工学者・通信工学者の佐藤理史は次のように述べている。

誤解を恐れず平易にいいかえるならば、「これまで人間にしかできなかった知的な行為(認識、推論、言語運用、創造など)を、どのような手順(アルゴリズム)とどのようなデータ(事前情報や知識)を準備すれば、それを機械的に実行できるか」を研究する分野である。

ビル・ゲイツイーロン・マスクスティーブン・ホーキングヨシュア・ベンジオピーター・ノーヴィグスチュアート・ラッセルジェフリー・ヒントンなどの専門家著名人の多くが人類滅亡の可能性を含む、人工知能の将来的な危険性を指摘している。

概要

人間の知的能力をコンピュータ上で実現する、様々な技術・ソフトウェアコンピュータシステム。応用例としては、自然言語処理機械翻訳かな漢字変換構文解析形態素解析等)、専門家の推論・判断を模倣するエキスパートシステム、画像データを解析し特定のパターンを検出・抽出する画像認識等がある。

2012年以降、Alexnetの登場で画像処理におけるディープラーニングの有用性が競技会で世界的に認知され、急速に研究が活発となり、第3次人工知能ブームが到来。2016年から2017年にかけて、ディープラーニングと強化学習(Q学習、方策勾配法)を導入したAIが完全情報ゲームである囲碁などのトップ棋士、さらに不完全情報ゲームであるポーカーの世界トップクラスのプレイヤーも破り、麻雀では「Microsoft Suphx(Super Phoenix)」がオンライン対戦サイト「天鳳」でAIとして初めて十段に到達するなど最先端技術として注目されている。第3次人工知能ブームの主な革命は、自然言語処理、センサーによる画像処理など視覚的側面が特に顕著であるが、社会学、倫理学、技術開発、経済学などの分野にも大きな影響を及ぼしている。

その一方、デジタルクローンによって、画風・声・歌声などを模倣したボーカルクローンなどによって仕事を奪うこと、氏名権などの法律の面からも問題視されている。

応用

文化的・芸術的な応用事例

音楽分野においては、既存の曲を学習することで、特定の作曲家の作風を真似て作曲する自動作曲ソフトが登場している。またリズムゲームに使われるタッチ位置を示した譜面を楽曲から自動生成するなど分野に特化したシステムも開発されている。

絵画分野においては、コンセプトアート用背景やアニメーションの中割の自動生成、、モノクロ漫画の自動彩色など、人間の作業を補助するAIが実現している。AIに自然言語で指定したイラスト生成させるサービス(Stable Diffusionなど)も登場している。このような人工知能を利用して制作された絵画は「人工知能アート(Artificial intelligence art)」と呼ばれているが、教師データとして利用された著作物知的財産権などを巡り、深刻な懸念が広がっている。

将棋AIは人間同士・AI同士の対局から学習して新しい戦法を生み出しているが、プロ棋士(人間)の感覚では不可解ながら実際に指すと有用であるという。

人工知能による人類絶滅の危険を懸念する声が存在するが、一方で平和を促進するための文化的な応用も存在する。

画像生成の技術としては、VAEGAN拡散モデルといった大きく分けて三種類が存在する。

児童保護に関する応用事例

子どものネット上の安全に人工知能を入れることは、国連や欧州連合で継続的に注目されている。

医療に関する応用事例

医療現場ではAIが多く活用されており、最も早く導入されたのは画像診断と言われている。レントゲンやMRI画像の異常部分を検知することで、病気の見逃し発見と早期発見に役立っている。また、AIがカルテの記載内容や患者の問診結果などを解析できるよう、自然言語処理技術の発展も進んでいる。今後はゲノム解析による疾病診断、レセプトの自動作成、新薬の開発などが行えるよう期待されている。

また、症例が少ない希少疾患の場合、患者の個人情報の保護が重要になるため、データを暗号化した状態で統計解析を行う秘密計算技術にAIを活用して、データの前処理、学習、推論を行えることを目指す研究が行われている。

農業に関する応用事例

AIを搭載した収穫ロボットを導入することで、重労働である農作業の負担を減らしたり、病害虫が発生している個所をAIでピンポイントで見つけだして、農薬散布量を必要最小限に抑えたりすることが可能になる。また、AIで事前に収穫量を正確に予測できれば、出荷量の調整にも役立つ。

Googleは農作物のスキャニングと成長記録を行う農業AIロボット「Don Roverto」を開発。多くの苗の個体識別を行い実験を繰り返すことで、厳しい環境下でも耐えられる気候変動に強い種を瞬時に見つけ出せる。

日常生活への浸透

2023年現在、人工知能を用いたサービスが日常生活に浸透してきている。PCやスマートフォンの画像認識による生体認証や音声認識によるアシスタント機能はすでに普通のサービスとなっている。AIスピーカーが普及してきており、中国製掃除ロボットに自動運転技術が応用されている。

自動車の自動運転は、2023年4月にレベル4(一定条件下で完全に自動化した公道での走行)が解禁された。福井県永平寺町では実証実験に成功しており、2023年度中に運転許可を申請する方向で検討している。

2022年秋にChatGPTが公開されて以来、生成AIの活用も日常化しつつある。人工知能は未だに指示(専門用語でプロンプトと言う)に対して誤った回答を返すことも多いため、誤った回答を抑制するための過渡期の手法としてプロンプトエンジニアリングという手法も実践されている。加速度的な人工知能の性能向上を考慮した場合、遅くとも2020年代の内には人間との対話と同等の質問応答が可能となるため、プロンプトに対する人工知能特有の工夫は不要となる見通しがある。

議論・問題・批判

人類存亡のリスク

AIは人類が制御不能なほどに自らの性能を向上させる可能性があるとされる。著名なコンピューター科学者であるスチュアート・ラッセルピーター・ノーヴィグによる大学レベルの標準的な教科書である『エージェントアプローチ人工知能』では、AIの危険性について、以下のように評価している。

AIの成功は人類の終わりを意味するかもしれない。ほとんどどんな技術でも、使い方を誤れば害になる可能性がある。しかしAIとロボティクスについては、技術自体が間違いを含んでいるかもしれないという新しい問題がある。

物理学者スティーブン・ホーキングも「人類の終わりを告げる」可能性を指摘した。哲学者ニック・ボストロムは、十分に知的なAIが、ある目標の達成に基づいて行動を選択する場合、資源の獲得や停止されることから自身を守るなどの収束的行動を示すと論じている。このAIの目標が人類の目標を完全に反映していない場合、より多くの資源を獲得したり、停止されるのを防いだりするために、最終的には人類に危害を加える可能性を指摘し、AIがどんなに謙虚で「友好的」な目標を掲げていたとしても、AIは人類にリスクをもたらすと結論付けている。政治学者のチャールズ・T・ルービンは、「十分に高度な博愛主義は悪意と見分けがつかないかもしれない」とし、機械やロボットが人類の道徳システムを共有すると信じるアプリオリな理由がないため、機械やロボットが人類を好意的に扱うと仮定すべきではないと論じた。

AI関連の専門家や業界関係者の意見は千差万別で、かなりの割合が最終的に人間主体の管理が困難な性質を持つ高度に発展したAIの危険性を懸念する一方で、具体的な言及を控えて経済合理性などの商業的な観点から楽観的な立場を取る者も少なくない。スティーブン・ホーキングマイクロソフト創業者のビル・ゲイツ歴史学者ユヴァル・ノア・ハラリスペースX創業者のイーロン・マスクらは、いずれも将来の高度に発展したAIの取り扱いについて深刻な懸念を表明している。

  • スティーブン・ホーキング「人工知能の発明は、人類史上最大の出来事だった。だが同時に『最後』の出来事になってしまう可能性もある
  • ビル・ゲイツ「これは確かに不安を招く問題だ。よく制御できれば、ロボットは人間に幸福をもたらせる。しかし、数年後、ロボットの知能は充分に発展すれば、必ず人間の心配事になる」
  • イーロン・マスク「人工知能についてはかなり慎重にならないといけないと思います。おそらく人類の一番大きな脅威となりうるものですね。ですので、本当に慎重さが求められます。規制や監視が国レベル、あるいは国際レベルで必要だと思いますね。私たちが何か分別に欠けるようなことをしないためにね。人工知能は悪魔を呼び出すようなものですから」

この他にも、イーロン・マスクはAIについての深刻な懸念を繰り返し表明しており、「悪魔のような独裁者は、少なくともいつかは死ぬ。だが、AIに死が訪れることはない。永遠に生きる。つまり、絶対に逃れることのできない不死身の独裁者が現れるようなものだ」として、永遠に破壊されることのない危険なAIを作り出す危険性を警告したほか、「AIが核兵器よりも危険なものとなる可能性がある」と表明している。また、AI開発を巡る国家間の競争を「第三次世界大戦の原因」になりうると指摘、AIは文明が直面する最大のリスクであると述べている。

ピーター・ティールとマスクを含む著名なハイテク企業は、OpenAIやFLIなどの責任あるAI開発を支持する非営利企業に10億ドル以上を出資している。

一方で、Facebookマーク・ザッカーバーグは、人工知能は現在の形で役に立っており、今後も人類の助けになり続けると述べている。リスクは研究する価値がないほど遠い将来である、あるいは超高知能AIから人類は便益を受けることになると主張する専門家もいる。 特にロドニー・ブルックスは「悪意ある」AIはまだ数世紀先だと述べている。

人工知能学会松尾豊は、著書『人工知能は人間を超えるか』内に於いて、人間に対して反乱を起こす可能性を否定している。人工知能学会会長の野田五十樹は、「シンギュラリティ(技術的特異点)」や「2045年にAIが人間の知能を超える」という予測に対して「SFめいた話だ」と批判し、「そもそも“知能”が何を示すのか、定義をせずに語っても意味が無い。仮に知能が計算力を指しているのであれば、80年代からとっくに人間の能力を超えていることになる」と述べている。

2012年以前、社会学者ロバート・M・ゲラチは、AIとロボット工学(ロボティクス)を専攻しているカーネギーメロン大学の研究所を現地調査した結果、実際の研究はシンギュラリティ論とかけ離れた「世俗的現実」("the mundane reality")であると結論した。同氏はカーツワイルやハンス・モラベックらのシンギュラリティ論を「終末論的AI」("Apocalyptic AI")と呼び、そのような論自体に対しては支持も反論もしないと前提した。その上で、「終末論的AI」を大衆主義的な性質の強い通俗科学(pop science)の一種と見なしている。つまりそれは宗教エンターテインメントフィクション等と同じような、分かりやすくて興味を刺激する説明を使い、大勢の興味を引いて研究費を獲得しているとし、「終末論的AIは、実際のところ、金銭の要求である。("Apocalyptic AI is, indeed, a request for money.")」と述べている。

2023年3月29日、OpenAIマイクロソフトAlphabetなどが対話型の人工知能を相次いでリリースしていることを受け、非営利団体のフューチャー・オブ・ライフ・インスティチュートChatGPTが開発したGPT-4を超える性能の大規模言語モデルを応用した人工知能技術はAI倫理の専門家が安全性に関する規範を策定するまで開発を停止すべきという公開書簡を発表した。書簡にはイーロン・マスクDeepMindの研究者、Stable Diffusionを開発するStability AIとCEOのエマード・モスターク、ヨシュア・ベンジオスティーブ・ウォズニアックなど業界関係者ら1000人以上が署名している。なおOpenAI、マイクロソフト、Alphabetの幹部は署名していない。

Future of Life Instituteの書簡については、サイエンス・フィクション的であり、むしろ現時点での人工知能のデメリットに注目すべきであるという批判がなされている。プリンストン大学の研究者であるアーヴィンド・ナラヤナンとサヤシュ・カプールは、人工知能の現実的なリスクとして、不正確なツールへの依存による誤情報、中央集権的な権力と労働搾取による雇用への悪影響、セキュリティ上のリスクといった3点を重視すべきであると指摘し、元Googleの研究者であるティムニット・ゲブルはAIの現実的な害を軽減するために、透明性を強制する法規制の必要性を指摘した。

2023年5月、人工知能研究の第一人者として知られるジェフリー・ヒントンは、想定より遥かに速くAIが進歩する危険性について自由に話すためとして、Googleを退社したことを公表した。ヒントンは、AIが偽の画像や文章を作成する能力を持ち「何が真実なのか分からなくなる」世界を作り出すことを懸念しており、「悪用をどのように防げばいいのか見当がつかない」と述べた。ヒントンはGoogleは「責任を持って行動した」としており、Googleを批判する意図はないとしている。ヒントンの退社を受け、オックスフォード大学AI倫理研究所のカリッサ・ベリズは、「今こそAIを規制する時期だ」と述べた。

ディープフェイク

人工知能の負の側面として、詐欺や思考誘導、世論操作を行う目的で、捏造した顔画像や映像、フェイク音声、フェイク文章といったフェイクメディアを流通させる可能性がある。すでに日本国内においてもStable Diffusionを使って捏造された災害画像が拡散する事例もあり、AIを悪用した詐欺や詐称、名誉毀損は現実の脅威となっている。このため国内外で対策のための研究が進められている。

ディープフェイクなどAIを利用した政治目的の偽情報の対策のため、アメリカでは2020年に2つの連邦法が成立した。国防授権法とIOGAN法である。IOGAN法は生成AIによって出力されたものを含む、操作あるいは合成されたメディアに対抗するための研究を国家レベルで支援することを定めた。中国でも国防上の観点からAIに強い規制が科せられており、プラットフォーマーにも強い義務が課せられている。

著名人のポルノ画像も人工知能を悪用して偽造されるようになっており、Twitchで人気を集める配信者のQTCinderellaは、偽造ポルノ画像を家族に送付される嫌がらせを受けた。南カリフォルニア大学の専門家は、フェイクポルノを拡散された教員が失職に追い込まれた例もあったと証言している。フェイクポルノが大量に公開されたウェブサイトも出現しており、合法的なアダルトコンテンツに経済的な脅威を与える可能性が懸念されている。

OpenAIが提供する画像生成AIはフェイクポルノに悪用されないように、特定のリクエストの入力をブロックするような対策がされている一方で、モデルが公開されているStable Diffusionには名目上ポルノ生成を抑止するような方策が取られているものの、実際にはそれを回避した性的なコンテンツの生成が可能である。カリフォルニア大学バークレー校教授のハニー・ファリドによれば、インターネット上に公開された何億もの画像データを学習する過程で、女性を性的に扱うバイアスが反映されるため、モデルの出力を100%制御することは困難であるとされる。2022年11月にリリースされた「Lensa」も、女性の写真を全裸にしたり、胸を大きくするなどの加工に悪用できるとされ、問題視されている。

Kickstarterでは、Stable Diffusionによるポルノの作成を目指す出資プロジェクトが、集めた資金で既存の画像を学習データとして利用することが、多くのアーティストから批判されていることを受け、AIアートに関する条項を変更し、プロジェクトをブロックした。

2023年3月には画像生成AIで作成された政治的なディープフェイクが現実の問題となった。問題となったのはドナルド・トランプ元大統領のディープフェイク画像で、オープンソースの調査機関の創設者であるエリオット・ヒギンズは「逮捕されて倒れているドナルド・トランプ」といったプロンプトを画像生成AIの一種であるMidjourneyに入力して、警察官に拘束されたトランプの画像を捏造し、Twitterに投稿した。この衝撃的な画像は、すぐに「ドナルド・トランプ元大統領が逮捕され、刑務所に護送された」といったメッセージとともに、Facebookなどのソーシャルメディアで拡散された。

この事件について、米上院情報委員会の委員長であるマーク・R・ワーナーは「立法者は、合成された画像が偽情報の拡散や、混乱や不和を起こすために悪用される可能性について何年も前から警告してきた」と述べた上で、「製品が合理的に予見できる被害を直接的に可能にするのであれば、潜在的な責任を問われる可能性がある」と人工知能の危険性に対する企業の義務に言及した。

人権侵害

マサチューセッツ工科大学の教授ローレン・R・グレアムは、莫大な資金力と人権の弾圧を併せ持つ中国が人工知能の開発競争で成功すれば、民主的な国家が技術革新に優位という既成概念が変わると述べ、「ディープラーニングの父」の一人と呼ばれているヨシュア・ベンジオは、中国が市民の監視や政治目的で人工知能を利用していることに警鐘を鳴らしており、世界の人権団体やメディアは、中国に代表される人工知能で人権を抑圧する政治体制を「デジタル権威主義」「デジタル独裁」「デジタル警察国家」「デジタル全体主義」「AI独裁」と呼んだ。

中国では、ヘルメットや帽子に埋め込んだセンサーから、国民の脳波と感情を人工知能で監視する、中国政府支援のプロジェクトが推し進められ、ネット検閲官僚刑務所の囚人から横断歩道の歩行者まで監視を人工知能に行わせ、監視カメラ警察サングラススマートグラスロボット顔認識システム天網)を搭載するなど人工知能による監視社会管理社会化が行われている。

新疆ウイグル自治区では、監視カメラや携帯電話などから収集した個人情報を、人工知能で解析するプレディクティブ・ポリシング人種プロファイリングで選別した少数民族のウイグル族を法的手続きを経ずに、2017年6月時点で約1万5千人もテロリズム犯罪を犯す可能性があるとして、新疆ウイグル再教育キャンプ予防拘禁しているとする、中国政府の内部文書であるチャイナ・ケーブルが報じられており、AIを使った政府による特定の民族の選別や、コンピュータが人間を強制収容所に送る人権蹂躙は「前例がない」として、国際問題になっている。香港では、中国本土と同様の人工知能による監視社会化を恐れ、2019年-2020年香港民主化デモが起きた際は、監視カメラを搭載したスマート街灯が、市民に次々と破壊された。

中国は、AI監視技術を中東アジアアフリカなど、世界各国に輸出しており、国際連合専門機関である国際電気通信連合(ITU)を通じて、中国がAI監視技術の国際標準化も主導してることから、中国のような人権侵害が世界に拡散することが、人権団体から懸念されている。

半自動の四脚ロボット「Spot(スポット)」は、ニューヨーク市警によって現場に配備されていたが、市民らの抗議により利用中止になった。「一般的に大半のSpotは、故障した送電線やガス漏れの調査などに使われている」反面、警察は市民らの承認を得ずにSpotを購入し利用していたため、「ロボット犬」とレッテルが貼られた。

差別

AIプログラムは、実世界のデータによるバイアスが生じることがある。このバイアスはプログラムによって学習されるため、AIの開発者はバイアスが存在することに気づかないことが多い。バイアスは学習データの選択方法によって不注意に導入される可能性がある。また相関関係から出現することもある。AIは個人をグループに分類し、その個人がグループの他のメンバーに類似していると仮定して予測を行うために使用されるが、場合によっては、この仮定は不当であるかもしれない。この例として、COMPASは、被告人が再犯者になる可能性を評価するために、アメリカの裁判所によって広く使用されている商用プログラムであるが、プロパブリカは、COMPASが割り当てた黒人の被告の再犯リスクレベルは、プログラムが被告の人種を知らされていなかったにもかかわらず、白人の被告のそれよりもはるかに過大評価される可能性があると主張している。 アルゴリズムのバイアスが不公平な結果につながる可能性がある他の例は、信用格付けや採用の判断にAIが使われる場合である。

AIの出力結果は入力値を改竄したり、恣意的にバイアスを含むような訓練データを準備することなどの手法で操作できるため、差別ハラスメント、その他の不正行為に対する法的責任を回避するように悪用することが可能である。例えば、「AIが判断したんだから正しい」として部下に無理難題を押し付けるようなパワーハラスメントが想定されるため、AIモデルの説明責任が重視されている。

中国の社会信用システムに代表されるような、人工知能でビッグデータを活用して人々の適性を決める制度は、社会階層間の格差を固定化することに繋がるとする懸念があり、欧州連合では2018年5月から、人工知能のビッグデータ分析のみによる、雇用や融資での差別を認めない、EU一般データ保護規則が施行された。

マサチューセッツ工科大学が顔認識システムの精度で、Microsoftと中国のMegviiは9割超で、IBMは8割に達したのに対して、Amazon.comは6割で人種差別的なバイアスがあるとする研究を発表した際は、Amazon.comと論争になった。

軍事利用

2022年のウクライナとロシアの戦争でも人工知能が重要な役割を果たすと経済平和研究所は報告している。主要国の軍隊は、ミサイル防衛の分野での自動化を研究しており、一部は実現している。アメリカ海軍は完全自動の防空システム「ファランクスCIWS」を導入しガトリング砲により対艦ミサイルを破壊できる。イスラエル軍は対空迎撃ミサイルシステム「アイアンドーム」を所有し、ガザ地区との境界線には標的を自動検知するガーディアムサムソン RCWSを稼働させて複数の人間を射殺している。今後AIは新しい軍事能力を生み、軍の指揮、訓練、部隊の展開を変え、戦争を一変させその変化は大国間の軍事バランスを決めることになるとの主張もある。作戦行動中の意思決定を補助するシステムも開発されており。P-1には戦術航空士の支援用として各種データを解析し最適な作戦を指示する戦闘指揮システムが搭載されている。

2016年6月、米シンシナティ大学の研究チームが開発した「ALPHA」は、元米軍パイロットとの模擬空戦で一方的に勝利したと発表された。AIプログラムは遺伝的アルゴリズムとファジィ制御を使用しており、アルゴリズムの動作に高い処理能力は必要とせず、Raspberry Pi上で動作可能。アメリカ合衆国国防総省は、人道上の観点から人間の判断を介さない自律殺傷兵器の開発禁止令を2012年に出し、2017年にはこれを恒久的なものにした。

一部の科学者やハイテク企業の首脳らは、AIの軍事利用により世界の不安定化は加速すると主張している。2015年にブエノスアイレスで開催された人工知能国際合同会議で、スティーブン・ホーキング、アメリカ宇宙ベンチャー企業のスペースX創業者のイーロン・マスク、Appleの共同創業者のスティーブ・ウォズニアックら、科学者と企業家らにより公開書簡が出されたが、そこには自動操縦による無人爆撃機や銃火器を操る人型ロボットなどAI搭載型兵器は、火薬核兵器に続く第3の革命ととらえられ、うち一部は数年以内に実用可能となると予測。国家の不安定化、暗殺、抑圧、特定の民族への選別攻撃などに利用され、兵器の開発競争が人類にとって有益なものとはならないと明記された。

2015年4月には、ハーバード大学ロースクールと国際人権団体であるヒューマン・ライツ・ウォッチが、自動操縦型武器の禁止を求めている。2017年11月には、国際連合でAIの軍事利用に関する初の公式専門家会議が行われ、2019年8月に同会議は、AI兵器の運用をめぐる事実上初の国際ルールを採択するも、法的拘束力は盛り込まれなかった。

2019年から、アメリカ国防総省とJAICが2030年に向けて戦術や戦闘方式に革命を起こすために「結合全ドメイン指揮統制」とよばれるシステムの構築と導入を進めている。空軍、陸軍、海兵隊、海軍および宇宙軍の全ての軍種のセンサーをJADC2内のネットワークに接続する。加えてAIを用いて敵国の行動予測、偵察活動の自動化を実現し、戦術策定、戦闘計画の自動生成も行う。Palantirやボーイングがこの開発に関わっている。

アメリカ国防高等研究計画局や米空軍研究所は、Rebellion DefenseやHeron Systemsといったベンチャー企業と協力して、XQ-58A等の無人戦闘機の空中戦闘能力をAIを用いて強化する技術開発を進めている。またMQ-9B21といった偵察爆撃機にCNNのような画像認識AIを導入する取り組みも進めている。Rebellion Defenseは元Google会長のエリックシュミットが出資しており、以前米国防総省がGoogleのTensorFlowを使用して画像認識技術の軍事転用をしようと試み、それが文書で明らかになってからGoogle社内から批判の声が上がったこともある。

2022年12月、ロッキード・マーティンが、AIエージェントの自律操縦ソフトを実装し、17時間以上の戦闘機の訓練飛行を完了した。

東西対立

新冷戦米中冷戦の状態にあるとも評されている、アメリカ合衆国・中国・ロシアは、核開発に匹敵する開発競争を人工知能の軍事利用をめぐって行っている。

中国は、2017年6月に119機のドローン群の自律飛行実験で、前年2016年に103機の飛行実験に成功したアメリカ軍の記録を更新して、翌2018年5月には北アメリカの都市を爆撃するCG映像も発表し、同年6月には56隻の自律無人艇を使った世界最大規模の試験を行うなど、AIの軍事利用の技術(特にスウォームと呼ばれる大量の徘徊型兵器などの自律兵器の統合運用)で中国が急速に進展しており、アメリカに追い付く可能性があることについて懸念し、アメリカ合衆国では将来に備える必要があるとの主張もされている。

中国の軍用AI開発は、アメリカ軍や政界に危機感を与え、2019年3月にジョセフ・ダンフォード統合参謀本部議長パトリック・シャナハン国防長官代行、ドナルド・トランプ大統領は、中国でのAI研究拠点の設立などで中国人民解放軍に協力していると、Googleを非難し、GoogleのCEOサンダー・ピチャイはダンフォードやトランプ大統領と面談して、中華人民共和国のAI研究拠点の成果は、中国に限らず全ての人々に開放されていると釈明する事態になった。

アメリカ合衆国では、Googleがアメリカ軍のAIの軍事利用に協力する極秘計画「メイヴン計画」を行っていたことが、Googleの社員に暴露されており、2018年12月のアメリカ合衆国議会の公聴会では、同様に暴露された中国政府に協力する秘密計画「ドラゴンフライ計画」とともに、人工知能を用いた兵器開発や人権侵害は拒否するとGoogleが誓った、2018年6月の人工知能開発6原則との整合性で、追及を受けた。

中国人民解放軍の戦闘機J-20の標的選択支援アルゴリズムに、GoogleのAI研究者が関わったと報道された際は「AIではなく、統計学的なモデリング」と否定した。また、Microsoftが中国軍の教育機関とAIの共同研究を発表した際も、同様に波紋を呼んだ。

2019年11月にマーク・エスパー国防長官は、中華人民共和国がAIによって新しい監視国家を構築しているだけでなく、中東で翼竜彩虹など無人攻撃機を大量に拡散させて、AIで自律的に攻撃するドローン兵器も販売していることに警鐘を鳴らした。

ロシアと中国は、既に実用化してるとされるハッキングの自動化の他、特定の個人を攻撃したりディープフェイクでなりすましたり、ボット投稿により世論を操る等の懸念が挙げられている。

経済への影響・雇用問題

過去において、技術革新は総雇用を減らすよりもむしろ増やす傾向があったが、経済学者はAIについて「我々は未知の領域にいる」と認めている。経済学者の調査では、ロボットやAIの使用の増加が長期的な失業の大幅な増加を引き起こすかどうかについて意見が分かれた。

以前の自動化の波とは異なり、多くの中産階級はAIによって失業に追い込まれるかもしれないという見解もあり、『エコノミスト』誌は、産業革命の間に蒸気機関ブルーカラー労働者の失業をもたらしたことと同様に、AIがホワイトカラーを失業に追い込むという懸念を「真剣に考える価値がある」としている。失業のリスクが非常に高い仕事はパラリーガルからファーストフードの調理担当までにわたるが、一方で個人向けのヘルスケアから聖職者に至るケア関連の専門職で雇用が増加すると想定される。

オックスフォード大学のマイケル・オズボーン博士が2013年に発表した論文によれば、人工知能やロボット等による代替可能性が高い労働人口が日本で約49%いること(アメリカは約47%、イギリスは約35%)、2030年代までにファストフード店で料理をする従業員が、ロボットやAIに取って代わられる可能性が81%と高いことを指摘されている。

2022年Stable Diffusionをベースにした画像生成AIが出現すると、AIアートがイラストデザインの分野で働くアーティストを代替する可能性が危惧された。ポーランドのデジタルアーティストであるグレッグ・ルトコフスキは自身の画風を模倣するように調整されたAIによって、被害を受けていることを明らかにした。AIが生成した画像のアップロードを禁止するイラスト投稿サイトも増加している

アメリカでは声優を模倣する合成音声を生成するAIの教師データとして声の利用を契約で迫る例が増えており、業界の全分野を失業に追い込む懸念がある。Apex Legendsなどの人気ゲームに出演する声優のフリーダ・ウォルフは合意や追加の補償なしに自身の音声データを利用する搾取に繋がるとして懸念を表明したほか、フォートナイトなどの声優であるサラ・エルマレは、自身の声を模倣した音声合成AIによって不本意な内容のセリフが読み上げられることの可能性を問題視した。

ほかにも、中程度の技能を有するルーティン業務が減少し、専門技能が求められない低スキルの仕事と、専門知識や高度な技能が求められる仕事へと2極化していき、経済格差が拡大していくとの予測もある。

経済学者マサチューセッツ工科大学教授のダロン・アシモグルらの研究では、離職促進効果を持つ過度な自動化技術は労働需要の減少を通じて、雇用、賃金を減少させ、社会全体の生産性を低下させる。そして、経済に歪みを広げ、貴重な経済余剰を浪費させ、経済格差を拡大させ、社会の不満と多くの社会問題を引き起こす可能性も指摘した。この分析からアセモグルは、政策面で自動化技術の促進よりも、新しいタスクや労働を補完するようなテクノロジーを推進することが望ましく、脱炭素など別の分野に技術革新の方向を転換すべきであるとしている。

データ倫理・著作権

2022年にStable Diffusionなどの既存の画像から絵柄などを学習して自動生成するAIが登場すると、著作権に関する問題が発生した。画像生成AIは、アーティストがWeb上に公開した作品をスクレイピングして教師データを確保しているが、作品を制作したアーティストの同意や許可を得ずに行われることが多い。そのため、画像生成AIが著作権法に違反しているのではないかという疑問が投げかけられた。

オレゴン州在住の漫画家サラ・アンダーソンら3人の原告はAIアートの違法性を訴え、オープンソースの画像生成AI・Stable Diffusionの開発元であるStability AIとStable Diffusionを利用した画像生成サービスを展開するMidjourneyDeviantARTの3社に対して訴訟を提起した。画像生成AIは、教師データを確保するためにインターネット上から何十億もの画像をスクレイピングしているが、その画像の大半は著作権で保護されており、同意も得ていないため、画像生成AIには倫理的・法的問題が生じている。アンダーソンは『ワシントン・ポスト』紙の取材に対し、「AIは私の作品を盗んだ」と答えた一方、Stability AI、Midjourney、DeviantARTの3社はいずれも取材を拒否した。

全米漫画家協会会長のジェイソン・チャットフィールドは、多くのアーティストが画像生成AIの開発元企業に対し、同意報酬クレジットの付与を求めているとし、立法の遅れが予想されるため、技術の倫理的使用のために公開討論訴訟が必要になると主張したほか、イラストレーター協会の元会長であるティム・オブライエンは、アーティストの名前をプロンプトとして使用するような、画像生成AIを許可すべきではないと主張した。

計算機科学者でプリンストン大学教授のアーヴィンド・ナラヤナンは、AIとクリエイターの対立について同様の意見を展開し、「画像生成AIを開発する企業は同意や補償なしに訓練用画像を収集するなど、アーティストに敵対するような方法で開発・デプロイを行っている」とした上で、「特定のアーティストの画風に寄せた画像生成ツールを許容することは、アーティストの労働や視覚的な独自性を明確に流用しているケースのように思える」と述べ、「開発者は、アーティストを訓練用の素材ではなく、パートナーや利害関係者として扱うこともできたはずだ」と画像生成AIの現状に異を唱えた上で、「この現状が必然だったと主張する人物は、企業が責任ある技術開発をできなかったことの言い訳をしているに過ぎない」と結論付けた。

英国ストックフォト企業であるGetty Imagesも画像生成AIが膨大な量の画像を盗用し、知的財産権を侵害しているとしてStable Diffusionの提供会社への損害賠償請求訴訟を提起した。画像生成AIはアーティストの知的財産である作品をベースに画像を生成するが、その作品の作者には補償されないし、著作権者の許可も得ていないことが問題視されている。日本の著作権法では学習データとしての利用は合法であるが、他者が著作権を有する絵画を学習した人工知能に対し、学習したものと同等の画像の出力を指示した場合には著作権侵害となる。

ハーバード・ビジネス・レビュー』は、ネット上に公開された無数の著作物を訓練データとして利用する現行の画像生成AIについて、知的財産権を侵害している可能性があるとして、潜在的な法的リスクを指摘している。そして、訓練データが権利者のライセンスを受けていることが望ましく、生成されたコンテンツの出所を示す手段が必要であるとしている。

画像生成AIの開発企業はアーティストの権利を尊重すると称して、著作物を訓練データから除外するためのオプトアウトの申請を受け付けている。しかし『ハーバード・ビジネス・レビュー』は、このオプトアウトは知的財産権を保護する責任を権利者に押し付けているとして、オプトアウトよりもオプトインが適切であると批判している。

2023年4月3日、東京大学は理事・副学長の太田邦史の署名付き文章で、全学生・教員向けにMidjourneyStable Diffusion等の生成AIの利用に関する注意喚起を行った。画像生成AIが、インターネット上のコンテンツを取り込んで学習し、画像を生成しており、これらの元データの作成者が知らないうちに著作権を侵害されたとして、問題提起を行っている現状を指摘。将来的に画像生成AIが生み出したコンテンツが訴訟の対象になる可能性に言及した。

なお、米国著作権局によれば、AIによって生成されたアートは著作権で保護されることはない。アーティストが使う他のツールと比較して、テキストプロンプトによる画像生成AIの具体的な出力は予測不可能であるため、著作権上の扱いが異なるとされる。

OpenAIが公開するChatGPTも、文章生成に報道機関の記事を無報酬で使用しているとして批判を受けている。『ウォール・ストリート・ジャーナル』紙の発行元であるダウ・ジョーンズのジェイソン・コンティは「人工知能の訓練にウォール・ストリート・ジャーナルの記事を使う場合は、ダウ・ジョーンズから権利をきちんとライセンスすべきである」と述べ、「OpenAIはダウ・ジョーンズとそのような契約を結んでいない」と批判した。コンティは「ジャーナリストの記事の悪用を真剣に受け止めており、この状況を精査している」と付け加え、懸念を表明している。

画像生成AIの訓練データの収集方法については「データ・ロンダリング」がなされているとの批判を受けている。つまり、ツールの提供会社が直接データを収集・利用するのではなく、非営利の研究機関を間に挟むことで、「研究目的」として著作物を収集することができ、著作物の使用に対する対価を払うことなく、データの商用利用を行なっているとされる。事実、Stable Diffusionの提供元企業は非営利団体への資金提供を経てデータ収集を行い、このデータセットを使ってモデルを構築した。

人工知能の訓練データに利用されている個人情報や、芸術作品などのオプトアウト著作権の問題についても、個人データの削除権が明記されているGDPRが注目されている。

法律・規制

差別ハラスメントなど、AIの結果を盾にとって不正行為を行い、法的責任を逃れようとする悪用が懸念されている。AIの出力結果は入力値を改竄したり、恣意的にバイアスを含むような訓練データを準備することなどの手法で操作できるとされる。また、AIの出した良くない出力が、悪用の結果なのか、誤用の結果なのか、AIの学習機能によって予測できなかった出力なのか、十分に判断する技術も未だ開発されていない。AIは性善説によって開発されてきたが、AIの普及に伴い不正目的での開発や悪用も視野に入れての開発や運用が要請される。技術的な対策だけでは悪用・誤用を十分に防ぐことは難しいため、法制度社会制度による救済手段の整備が求められる。

欧州のAI規制はこのような悪用の懸念を反映しており、GDPR22条では「計算機(AI)のプロファイリングから自動的に出てきた決定に服さなくてよい権利」を明記している。この方法として、「プロファイリングに使用した入力データを開示させる」「出力された決定に対する説明を人間に果たさせる」の2点が報告された。

しかし、前者は守秘義務企業秘密があるため実効性は疑問視されており、後者も不十分とされているため、「IEEE EAD version2」では説明可能なAIとして、AIの推論の道筋と用いた入力データを明確化すること、AIの出した結果に疑問が生じた場合に内部告発を可能にする制度を確保すること、AIが悪用された際の救済策を国家レベルで立法化すること、保険などの経済的救済策の整備の4点が明記された。

ほかにも、AIに関する規制や政策の状況は、世界各地で新たな問題となっている。2016年から2020年の間に、30カ国以上がAIに関する専用の戦略を採用していた。ほとんどのEU加盟国がAI国家戦略を公開しており、カナダ中国インド日本モーリシャスロシアサウジアラビアアラブ首長国連邦米国ベトナムも同様であった。また、バングラデシュマレーシアチュニジアを含む第三国も独自のAI戦略を構築している。 2020年6月にGPAIが発足し、AI技術に対する国民の期待と信頼を確保するために、AIが人権民主主義の価値観に従って開発される必要性を表明した。2021年11月には、ヘンリー・キッシンジャーエリック・シュミット、およびダニエル・ハットンロッハーがAIを規制する政府委員会の招集を求める共同声明を発表した。

生成AIのリスクに対して、欧州を中心に規制の動きが広がっているが、GoogleMetaなどの巨大IT企業が規制を回避するためのロビー活動を活発化させている。推計では1億ドル(約137億円)に及ぶ資金を費やしているとされる。

法律事務など、法的規制のあるサービスをAIで代行する行為に関しては法律が定まっていない。2023年、弁護士ドットコムでは過去の相談事例を学習させたChatGPTによる法律相談サービスを開始すると発表したが、弁護士法では弁護士弁護士法人など弁護士資格を有する自然人法人を想定しており、どちらでもないAIがチャットで相談に応じると法律事務とみなされる可能性があるため、サービスを無償で提供することで問題を回避するとした。

スパム・詐欺

RedditではChatGPTを悪用したスパムが大量に発生しており、「大災害」と評されるほどに対応に苦慮している。ChatGPTのリリース後、大麻やポルノ、ギャンブル、ゲームの宣伝を目的にしていると思われるスパムが急増し、モデレーターは大量のbotアカウントの凍結に追われた。Redditでは従来も宣伝目的のスパムやアストロターフィングが問題だったが、ChatGPTはこの問題を大きく悪化させている。従来のスパム行為はコピー・アンド・ペーストに依存して単純だったが、ChatGPTは新しい文面を簡単に生成できることから、より対処が困難になった。

誇大広告

計算機科学者でプリンストン大学教授のアーヴィンド・ナラヤナンは、メディアによるAIの誇大広告に対して警鐘を鳴らし続けている人物である。ナラヤナンは2019年に「インチキAIの見分け方」を発表し、AIの成果とされるサービスの多くが詐欺に近いものであると主張し、研究者、企業、メディアがAIに関する誇大広告を無自覚に作り出し、一般のAIに対する理解が歪められていると述べている。ナラヤナンはChatGPTに対して一部有用性を認めながらも、批判的な立場を採り、画像生成AIに関しても、メディアが過度に擬人化して宣伝するなど、誤解を招くような印象を蔓延させ、誇大広告に加担していると指摘している。

ナラヤナンはAI関連の報道で注意すべき点を複数挙げている。その一部を紹介する。

  • AIに関する記事にロボットと関係なくても人型ロボットの画像を使い、AIが具現化するという誤った印象を読者に暗示する
  • AIが人間と同じように学習すると暗示して人間の知能とAIを比較する
  • AIが狭い範囲の環境でしか機能しないのに触れないまま、AIツールが人間のスキルよりも優れていると比較する

世界の研究開発事例

Googleはアレン脳科学研究所と連携し脳スキャンによって生まれた大量のデータを処理するためのソフトウェアを開発している。2016年の時点で、Googleが管理しているBrainmapのデータ量はすでに1ゼタバイトに達しているという。Googleは、ドイツのマックスプランク研究所とも共同研究を始めており、脳の電子顕微鏡写真から神経回路を再構成するという研究を行っている。これらの大型脳研究計画は、米国や欧州で立ち上がっている。

中国では2016年の第13次5カ年計画からAIを国家プロジェクトに位置づけ、脳研究プロジェクトとして中国脳計画も立ち上げ、官民一体でAIの研究開発を推進している。中国の教育機関では18歳以下の天才児を集めて公然とAI兵器の開発に投じられてもいる。マサチューセッツ工科大学(MIT)のエリック・ブリニョルフソン教授や情報技術イノベーション財団などによれば、中国ではプライバシー意識の強い欧米と比較してAIの研究や新技術の実験をしやすい環境にあるとされている。日本でスーパーコンピュータの研究開発を推進している齊藤元章もAIの開発において中国がリードする可能性を主張している。世界のディープラーニング用計算機の4分の3は中国が占めてるともされる。米国政府によれば、2013年からディープラーニングに関する論文数では中国が米国を超えて世界一となっている。FRVTImageNetなどAIの世界的な大会でも中国勢が上位を独占している。大手AI企業Google、マイクロソフトAppleなどの幹部でもあった台湾系アメリカ人科学者の李開復は中国がAIで覇権を握りつつあるとする『AI超大国:中国、シリコンバレーと新世界秩序』を著してアメリカの政界やメディアなどが取り上げた。

フランス大統領エマニュエル・マクロンはAI分野の開発支援に向け5年で15億ドルを支出すると宣言し、AI研究所をパリに開き、フェイスブック、グーグル、サムスン、DeepMind、富士通などを招致した。イギリスともAI研究における長期的な連携も決定されている。EU全体としても、「Horizon 2020」計画を通じて、215億ユーロが投じられる方向。韓国は、20億ドルを2022年までに投資をする。6つのAI機関を設立し褒賞制度も作られた。目標は2022年までにAIの世界トップ4に入ることだという。

日経新聞調べによると、国別のAI研究論文数は1位米国、2位中国、3位インド、日本は7位だった。

歴史

AIの構築が長い間試みられてきているが、シンボルグラウンディング問題とフレーム問題の解決が大きな壁となってきた。

初期

17世紀初め、ルネ・デカルトは、動物の身体がただの複雑な機械であると提唱した(機械論)。ブレーズ・パスカルは1642年、最初の機械式計算機を製作した。チャールズ・バベッジエイダ・ラブレスはプログラム可能な機械式計算機の開発を行った。

バートランド・ラッセルアルフレッド・ノース・ホワイトヘッドは『数学原理』を出版し、形式論理に革命をもたらした。ウォーレン・マカロックウォルター・ピッツは「神経活動に内在するアイデアの論理計算」と題する論文を1943年に発表し、ニューラルネットワークの基礎を築いた。

1900年代後半

1950年代になるとAIに関して活発な成果が出始めた。1956年夏、ダートマス大学が入居している建物の最上階を引き継いだ数学と計算機科学者のグループの一人である若き教授ジョン・マッカーシーはワークショップでのプロポーザルで "Artificial Intelligence" という言葉を作り出している。ワークショップの参加者は、オリバー・セルフリッジレイ・ソロモノフ、マービン・ミンスキー、クロード・シャノンハーバート・サイモンアレン・ニューウェルなどであった。ジョン・マッカーシーはAIに関する最初の会議で「人工知能」という用語を作り出した。彼はまたプログラミング言語LISPを開発した。知的ふるまいに関するテストを可能にする方法として、アラン・チューリングは「チューリングテスト」を導入した。ジョセフ・ワイゼンバウムELIZAを構築した。これは来談者中心療法を行うおしゃべりロボットである。

1956年に行われた、ダートマス会議開催の提案書において、人類史上、用語として初めて使用され、新たな分野として創立された。

1960年代と1970年代の間に、ジョエル・モーゼスMacsymaマクシマプログラム中で積分問題での記号的推論のパワーを示した。マービン・ミンスキーシーモア・パパートは『パーセプトロン』を出版して単純なニューラルネットの限界を示し、アラン・カルメラウアーはプログラミング言語 Prolog を開発した。テッド・ショートリッフェは医学的診断と療法におけるルールベースシステムを構築し、知識表現と推論のパワーを示した。これは、最初のエキスパートシステムと呼ばれることもある。ハンス・モラベックは、障害物があるコースを自律的に走行する最初のコンピューター制御の乗り物を開発した。

1980年代に、ニューラルネットワークはバックプロパゲーションアルゴリズムによって広く使われるようになった。

また、この時代にロドニー・ブルックスが、知能には身体が必須との学説(身体性)を提唱した。

1990年代はAIの多くの分野で様々なアプリケーションが成果を上げた。特に、ボードゲームでは目覚ましく、1992年にIBMは世界チャンピオンに匹敵するバックギャモン専用コンピュータ・TDギャモンを開発し、IBMのチェス専用コンピュータ・ディープ・ブルーは、1997年5月にガルリ・カスパロフを打ち負かし、同年8月にはオセロで日本電気のオセロ専用コンピュータ・ロジステロに世界チャンピオンの村上健が敗れた。国防高等研究計画局は、最初の湾岸戦争においてユニットをスケジューリングするのにAIを使い、これによって省かれたコストが1950年代以来のAI研究への政府の投資全額を上回ったことを明らかにした。日本では甘利俊一らが精力的に啓蒙し、優秀な成果も発生したが、論理のブラックボックス性が指摘された。

1998年には非構造化データ形式の国際規格であるXMLが提唱されたが、ここからWeb上の非構造化データに対して、アプリケーション別に適した意味付けを適用し、処理を行わせる試みが開始された。同年に、W3Cティム・バーナーズ=リーにより、Webに知的処理を行わせるセマンティック・ウェブが提唱された。この技術はWeb上のデータに意味を付加して、コンピュータに知的処理を行わせる方法を国際的に規格化するものである。この規格には知識工学におけるオントロジーを表現するデータ形式のOWLも含まれていることから、かつて流行したエキスパートシステムの亜種であることが分かる。2000年代前半に規格化が完了しているが、Web開発者にとっては開発工数に見合うだけのメリットが見出せなかったことから、現在も普及はしていない。

日本における第二次AIブーム

日本においてはエキスパートシステムの流行の後にニューロファジィが流行した。しかし、研究が進むにつれて計算リソースやデータ量の不足,シンボルグラウンディング問題,フレーム問題に直面し、産業の在り方を激変させるようなAIに至ることは無く、ブームは終焉した。

エキスパートシステム(知識工学の応用)

1980年代に入って、大企業の研究所を中心に、知識工学に基づくエキスパートシステムが多数提案されるようになり、エキスパートシステムを専門とするAIベンチャーも次々と立ち上がった。その流行から生まれた究極のプロジェクトとして第五世代コンピュータが挙げられる。

探索

知識や組み合わせを探索する手法として、ボードゲームの分野では2006年からモンテカルロ木探索という手法が研究されはじめた。モンテカルロ法は自動定理証明という分野で活用されていたものである。今では人工知能と呼ばれていないが、カーナビのルート探索アルゴリズムはダイクストラ法が用いられている。

第五世代コンピュータ(高性能なProlog推論マシン)

1982年から1992年まで日本は国家プロジェクトとして570億円を費やして第五世代コンピュータの研究を進めるも、採用した知識工学的手法では膨大なルールの手入力が必要で、専門家間で専門知識の解釈が異なる場合には統一したルール化が行えない等の問題もあり、実用的なエキスパートシステムの実現には至らなかった。実現した成果物はPrologの命令を直接CPUのハードウェアの機構で解釈して高速に実行する、並列型のProlog専用機であるが、商業的な意味で応用先が全く見つからなかった。

ニューロファジィ

1980年代後半から1990年代中頃にかけて、従来から電子制御の手法として用いられてきたON/OFF制御,PID制御,現代制御の問題を克服するため、知的制御が盛んに研究され、知識工学的なルールを用いるファジィ制御,データの特徴を学習して分類するニューラルネットワーク,その2つを融合したニューロファジィという手法が日本を中心にブームを迎えた。1987年には仙台市において開業した地下鉄ATOに採用され、バブル期の高級路線に合わせて、白物家電製品でもセンサの個数と種類を大幅に増やし、多様なデータを元に運転を最適化するモデルが多数発売され始めた。

ファジィについては、2018年までに日本が世界の1/5の特許を取得している事から、日本で特に大きなブームとなっていたことが分かっている。現在の白物家電ではこの当時より更に発展した制御技術が用いられているが、既に当たり前のものになり、利用者には意識されなくなっている。ニューロファジィがブームになった1990年代には未だビッグデータという概念は無く(ブロードバンド接続普及後の2010年に初めて提唱された)、データマイニングとしての産業応用は行われなかった。しかし、ニューラルネットワークが一般人も巻き込んで流行した事例としては初めての事例であり、2010年代のディープラーニングブームの前史とも言える社会現象と言える。

ブームの経緯

松下電器が1985年頃から人間が持つような曖昧さを制御に活かすファジィ制御についての研究を開始し、1990年2月1日にファジィ洗濯機第1号である「愛妻号Dayファジィ」の発売に漕ぎ着けた。「愛妻号Dayファジィ」は従来よりも多数のセンサーで収集したデータに基づいて、柔軟に運転を最適化する洗濯機で、同種の洗濯機としては世界初であった。ファジィ制御という当時最先端の技術の導入がバブル期の高級路線にもマッチしたことから、ファジィは裏方の制御技術であるにもかかわらず世間の大きな注目を集めた。その流行の度合いは、1990年の新語・流行語大賞における新語部門の金賞で「ファジィ」が選ばれる程であった。その後に、松下電器はファジィルールの煩雑なチューニングを自動化したニューロファジィ制御を開発し、従来のファジィ理論の限界を突破して学会で評価されるだけでなく、白物家電への応用にも成功して更なるブームを巻き起こした。松下電器の試みの成功を受けて、他社も同様の知的制御を用いる製品を多数発売した。1990年代中頃までは、メーカー各社による一般向けの白物家電の売り文句として知的制御技術の名称が大々的に用いられており、洗濯機の製品名では「愛妻号DAYファジィ」,掃除機の分類としては「ニューロ・ファジィ掃除機」,エアコンの運転モードでは「ニューロ自動」などの名称が付与されていた。

ニューロ,ファジィ,ニューロファジィという手法は、従来の単純なオン・オフ制御や、対象を数式で客観的にモデル化する(この作業は対象が複雑な機構を持つ場合は極めて難しくなる)必要があるPID制御や現代制御等と比較して、人間の主観的な経験則や計測したデータの特徴が利用可能となるファジィ、ニューロ、ニューロファジィは開発工数を抑えながら、環境適応時の柔軟性を高くできるという利点があった。しかし、開発者らの努力にもかかわらず、計算能力や収集可能なデータ量の少なさから、既存の工作機械や家電製品の制御を多少改善する程度で限界を迎えた。理論的にもファジィ集合と深層学習が不可能なニューラルネットワークの組み合わせであり、計算リソースやデータが潤沢に与えられたとしても、認識精度の向上には限界があった。

以降、計算機の能力限界から理論の改善は遅々として進まず、目立った進展は無くなり、1990年代末には知的制御を搭載する白物家電が大多数になったことで、売り文句としてのブームは去った。ブーム後は一般には意識されなくなったが、現在では裏方の技術として、家電製品のみならず、雨水の排水,駐車場,ビルの管理システムなどの社会インフラにも使われ、十分に性能と安定性が実証されている。2003年頃には、人間が設計したオントロジー(ファジィルールとして表現する)を利活用するネットワーク・インテリジェンスという分野に発展した。

統計的機械学習

日本の気象庁では、1977年から気象数値モデルの補正に統計的機械学習の利用を開始している。具体的には、カルマンフィルタロジスティック回帰線形重回帰クラスタリング等である。

また地震発生域における地下の状態を示すバロメータである応力降下量を、ベイズ推定マルコフ連鎖モンテカルロ法によって推定したり、余震などの細かい地震の検知を補正するガウス過程回帰といった手法を気象庁は導入している。

その後機械学習は、化合物探索やCAD設計など応力解析の高度化に使用され始めた。Webサービス上での活用例としては迷惑メールの判定、写真の分類、市場価格の予測などがある。製造ラインの異常検知、不正取引検知などにも利用されている。主成分分析は主に顔認証アルゴリズムの分野で活用されている。隠れマルコフモデルは主に音声認識のアルゴリズムに応用されている。

2000年代

2002年、進化的計算の一種である遺伝的アルゴリズムを利用し、人工ニューラルネットワーク内部の結合重みやトポロジ(各層間の接続関係)の自動最適化を行う手法がテキサス大学によって開発された。

2005年、レイ・カーツワイルは著作で、「圧倒的な人工知能が知識・知能の点で人間を超越し、科学技術の進歩を担い世界を変革する技術的特異点(シンギュラリティ)が2045年にも訪れる」とする説を発表した。

2006年に、ジェフリー・ヒントンらの研究チームによりオートエンコーダによるニューラルネットワークの深層化手法が提案された(現在のディープラーニングの直接的な起源)。

2010年代前半

2010年代に入り、膨大なデータを扱う研究開発のための環境が整備されたことで、AI関連の研究が再び大きく前進し始めた。

2010年に英国エコノミスト誌で「ビッグデータ」という用語が提唱された。同年に質問応答システムワトソンが、クイズ番組「ジェパディ!」の練習戦で人間に勝利し、大きなニュースとなった。2012年に画像処理コンテストでジェフリー・ヒントン氏のチームが開発した畳み込みニューラルネット「Alexnet」は、従来手法からの大幅な精度改善を果たした上で優勝し、これをきっかけに第三次AIブームが始まった。コンピュータ将棋では将棋電王戦が始まり、次々とプロを破った。

その後、リカレントニューラルネット(RNN)、LSTM敵対的生成ネットワーク(GAN)、グラフニューラルネット、SOM等の人工NN派生型の研究開発が大幅に増えた。

2013年には国立情報学研究所富士通研究所の研究チームが開発した「東ロボくん」で東京大学入試の模擬試験に挑んだと発表した。数式の計算や単語の解析にあたる専用プログラムを使い、実際に受験生が臨んだ大学入試センター試験と東大の2次試験の問題を解読した。代々木ゼミナールの判定では「東大の合格は難しいが、私立大学には合格できる水準」だった。

2014年には、日本の人工知能学者である齊藤元章により、特異点に先立ち、オートメーション化とコンピューター技術の進歩により衣食住の生産コストがゼロに限りなく近づくというプレ・シンギュラリティという概念も提唱された。

ジェフ・ホーキンスが、実現に向けて研究を続けているが、著書『考える脳 考えるコンピューター』の中で自己連想記憶理論という独自の理論を展開している。

世界各国において、軍事・民間共に実用化に向け研究開発が進んでいるが、とくに無人戦闘機UCAVや無人自動車ロボットカーの開発が進行しているものの、2010年代にはまだ完全な自動化は試験的なものに留まった(UCAVは利用されているが、一部操作は地上から行っているものが多い)。

ロボット向けとしては、CSAILのロドニー・ブルックスが提唱した包摂アーキテクチャという理論が登場している。これは従来型の「我思う、故に我あり」の知が先行するものではなく、体の神経ネットワークのみを用いて環境から学習する行動型システムを用いている。これに基づいたゲンギスと呼ばれる六本足のロボットは、いわゆる「脳」を持たないにもかかわらず、まるで生きているかのように行動する。

2010年代後半

2015年10月に、DeepMind社は2つの深層学習技術と強化学習、モンテカルロ木探索を組み合わせ「AlphaGo」を開発し、人間のプロ囲碁棋士に勝利することに成功した。それ以降、ディープラーニング(深層学習)と呼ばれる手法が注目されはじめる。

2016年10月、DeepMindが、入力された情報の関連性を導き出し仮説に近いものを導き出す人工知能技術「ディファレンシャブル・ニューラル・コンピューター」を発表し、同年11月、大量のデータが不要の「ワンショット学習」を可能にする深層学習システムを、翌2017年6月、関係推論のような人間並みの認識能力を持つシステムを開発。2017年8月には、記号接地問題(シンボルグラウンディング問題)を解決した。

従来、AIには不向きとされてきた不完全情報ゲームであるポーカーでもAIが人間に勝利するようになった。

Googleの関係者はさらに野心的な取り組みとして、単一のソフトウェアで100万種類以上のタスクを実行可能なAIを開発していると明らかにした。

人工知能の第三次ブーム:AGI(汎用人工知能)と技術的特異点

2006年のディープラーニングの発明と、2010年以降のビッグデータ収集環境の整備、計算資源となるGPUの高性能化により、2012年にディープラーニングが画像処理コンテストで他の手法に圧倒的大差を付けて優勝したことで、技術的特異点という概念は急速に世界中の識者の注目を集め、現実味を持って受け止められるようになった。ディープラーニングの発明と急速な普及を受けて、研究開発の現場においては、デミス・ハサビス率いるDeepMindを筆頭に、Vicarious、OpenAI、IBM Cortical Learning Center、全脳アーキテクチャ、PEZY Computing、OpenCog、GoodAI、NNAISENSE、IBM SyNAPSE等、汎用人工知能AGI)を開発するプロジェクトが数多く立ち上げられている。これらの研究開発の現場では、脳をリバースエンジニアリングして構築された神経科学と機械学習を組み合わせるアプローチが有望とされている。結果として、Hierarchical Temporal Memory (HTM) 理論、Complementary Learning Systems (CLS) 理論の更新版等、単一のタスクのみを扱うディープラーニングから更に一歩進んだ、複数のタスクを同時に扱う理論が提唱され始めている。

汎用人工知能を実現するためのアプローチとして、大きく分けて三つの方向性がある

  1. 脳全体、またはその一部を工学的にソフトウェアとして再現する
  2. 脳をそのまま再現する(全脳シミュレーション)
  3. 脳を参考にせず、全く新しい知能システムを構築する(特化型AIを組み合わせる等)

3Dゲームのような仮想空間でモデルを動かし現実世界のことを高速に学ばせるといったことも大きな成果を上げている(シミュレーションによる学習)。

また、数は少ないがAGIだけでは知能の再現は不可能と考えて、身体知を再現するために、全人体シミュレーションが必要だとする研究者やより生物に近い振る舞いを見せるAL(人工生命)の作成に挑む研究者、知能と密接な関係にあると思われる意識のデジタル的再現(人工意識)に挑戦する研究者もいる。

リーズナブルなコストで大量の計算リソースが手に入るようになったことで、ビッグデータが出現し、企業が膨大なデータの活用に極めて強い関心を寄せており、全世界的に民間企業主導で莫大な投資を行って人工知能に関する研究開発競争が展開されている。また、2011年のD-Wave Systemsによる量子アニーリング方式の製品化を嚆矢として、量子コンピュータという超々並列処理が可能な次世代のITインフラが急速に実用化され始めた事で、人工知能の高速化にも深く関わる組み合わせ最適化問題をリアルタイムに解決できる環境が整備され始めている。(量子機械学習を参照)この動向を受ける形で、2016年頃から、一般向けのニュース番組でも人工知能の研究開発や新しいサービス展開や量子コンピュータに関する報道が目立つようになった。

2017年にはイーロン・マスクが、急速に進化し続ける人工知能に対して人間が遅れを取らないようにするために、ブレイン・マシン・インターフェースを研究開発するニューラリンクを立ち上げていたことを公表した。

2017年10月にはジェフリー・ヒントンにより要素間の相対的な位置関係まで含めて学習できるCapsNet(カプセルネットワーク)が提唱された。

2017年、マルチヘッド注意機構、位置エンコーディングを採用する「Transformer」と呼ばれる新しい自然言語処理技術がGoogleによって発案された。RNNやLSTMよりも長い文章を一気に処理できる。

2018年3月16日の国際大学GLOCOMの提言によると、課題解決型のAIを活用する事で社会変革に寄与できると分析されている。

2018年8月、OpenAIが好奇心を実装しノーゲームスコア、ノーゴール、無報酬で目的なき探索を行うAIを公表。これまでのAIで最も人間らしいという。

2018年9月、MITリンカーン研究所は従来ブラックボックスであったニューラルネットワークの推論をどのような段階を経て識別したのかが明確に分かるアーキテクチャを開発した。

2018年、ハーバード大学は畳み込みニューラルネットの構造をそのままに、そこに量子ゲートとくりこみを適用した「量子畳み込みニューラルネット(QCNN)」を提案した。

2019年、BERTなどの言語モデルにより、深層学習では困難とされてきた言語処理において大きな進展があり、Wikipediaなどを使用した読解テストで人間を上回るに至った。

2020年代前半

2020年には、OpenAIが基盤モデルとしてTransformerを採用した1750億パラメータを持つ自然言語処理プログラムGPT-3が開発され、アメリカの掲示板サイトRedditで1週間誰にも気付かれず人間と投稿・対話を続けた。プログラムと気付かれた理由は文章の不自然さではなく、その投稿数が異常というものだった。

DeepMindが開発したタンパク質の構造予測を行うAlphaFold2CASPグローバル距離テスト (GDT) で90点以上を獲得し、計算生物学における重要な成果であり、数十年前からの生物学の壮大な挑戦に向けた大きな進歩と称された。

OpenAIはTransformer (言語モデル) の性能がパラメータ数N・データセットサイズD・計算予算Cの単純なべき乗になっているとの論文を発表した(スケーリングの法則)。

最先端のAI研究では2年で1000倍サイズのモデルが出現し、1000倍の演算能力を持つコンピュータが必要になって来ている。

2021年4月、NVIDIAの幹部、パレシュ・カーリャは「数年内に100兆パラメータを持つAIモデルが出てくるだろう」と予想した。

2021年5月、マイクロソフトリサーチが32兆パラメーターのAIを試験。

2021年6月、中国政府の支援を受けている北京智源人工知能研究院がパラメーター数1兆7500億のAI「悟道2.0」を発表。

2021年6月、グーグルの研究者達がグラフ畳み込みニューラルネットと強化学習(方策勾配法最適化)を用いて配線とチップの配置を自動設計させたところ、消費電力、性能など全ての主要な指数で人間が設計したもの以上の行列演算専用チップ(TPU4.0)のフロアプランを生成した。そして、設計にかかる時間は人間の1/1000であった。

2021年8月、グーグルの量子人工知能研究部門を率いるハルトムート・ネベンは量子コンピュータの発達の影響がもっとも大きい分野として機械学習分野などAIを挙げた。

2021年8月、DeepMindはさまざまな種類の入力と出力を処理できる汎用の深層学習モデル「Perceiver」を開発した。

2021年10月、GoogleBrainは視覚、聴覚、言語理解力を統合し同時に処理するマルチモーダルAIモデル「Pathways」を開発中であると発表した。

2022年02月、DeepMindは自動でプログラムのコーディングが可能なAI「AlphaCode」を発表した。自然言語で入力した単純なプロンプトからコードを生成できる。その能力は、競技プログラミングコンテスト「Codeforces」で過去に出題されたプログラミング課題を解くタスクで、平均ランキング上位54.3%に入る実力である。

2022年4月、Googleは予告どおりPathwaysを使い、万能言語モデルPaLMを完成させた。とんち話の解説を行えるほか、9-12歳レベルの算数の文章問題を解き、数学計算の論理的な説明が可能であった。デジタルコンピュータは誕生から80年弱にして初めて数学計算の内容を文章で説明できるようになった。その後、自然言語処理としてPathwaysをベースにした数学の問題を解けるモデル「Minerva」を開発した。また、Pathwaysをベースにした自然言語処理とDiffusion Modelを連携し、画像生成モデルPartiを発表した。

2022年5月12日、DeepMindは様々なタスクを一つのモデルで実行することができる統合モデル「Gato」を発表した。チャット、画像の生成と説明、四則演算、物体を掴むロボットの動作、ゲームの攻略等々、600にも及ぶ数々のタスクをこの一つのモデルで実行することができるという。

DeepMindのNando de Freitasは「今は規模が全てです。(AGIに至る道を探す)ゲームは終わった」と主張したが人工知能の歴史の中で繰り返されてきた誇大広告だという批判も存在する。

2022年5月、GoogleのチャットボットLaMDAの試験が行われた。それに参加していたエンジニアであるブレイク・ルモワンはLaMDAに意識があると確信、会話全文を公開したがGoogleから守秘義務違反だとして休職処分を受けた。この主張には様々な批判意見がある。

2022年8月、拡散モデルがベースの画像生成AI・Midjourneyの作品が米国コロラド州で開催された美術品評会で優勝した。ただし細かい部分は人間の手が加えられている。

2022年9月、Googleはテキストから3Dモデルを生成できる「DreamFusion」を開発した。複数の静止画から3Dモデルを生成するNeRFや、Diffusion Modelを使用している。

2022年10月、DeepMindは行列の積を効率的に計算するための未発見のアルゴリズムを導き出す「AlphaTensor」を開発した。。「4×5の行列」と「5×5の行列」の積を求める際に、通常の計算方法で100回の乗算が必要なところを、76回に減らすことができた。またこれを受けて数学者もさらに高速な行列乗算プログラムを公表した。

2023年1月11日、DeepMindは、画像から世界モデルを学習し、それを使用して長期視点から考えて最適な行動を学習する事が出来る「DreamerV3」を発表した。

Googleロボティクス部門は、ロボットの入力と出力行動(カメラ画像、タスク指示、モータ命令など)をトークン化して学習し、実行時にリアルタイム推論を可能にする「Robotics Transformer 1(RT-1)」を開発した。

2022年、研究者の間では大規模ニューラルネットワークに意識が存在するか議論が起こっている。深層学習の第一人者Ilya Sutskeverは「(大規模ニューラルネットワークは)少し意識的かもしれない」と見解を示した。

2022年12月、Googleは、「Flan-PaLM」と呼ばれる巨大言語モデルを開発した。米国医師免許試験(USMLE)形式のタスク「MedQA」で正答率67.6%を記録し、PubMedQAで79.0%を達成した。57ジャンルの選択問題タスク「MMLU」の医療トピックでもFlan-PaLMの成績は他の巨大モデルを凌駕した。臨床知識で80.4%、専門医学で83.8%、大学生物学で88.9%、遺伝医療学で75.0%の正答率である。

質問応答意思決定支援、需要予測、音声認識音声合成機械翻訳、科学技術計算、文章要約など、各分野に特化したシステムやこれらを組み合わせたフレームワークが実用化された。またChatGPTのように自然言語によるチャットを使うことで、専門家以外でも利用可能な対話型の人工知能が実用化された。

従来、AIは肉体労働や単純作業を置き換え、芸術的・創造的仕事が「人間の領域」となると予想されてきたが、実際には2020年代前半から芸術的な分野へ急速に進出している。またAIの実用化後も残るとされた翻訳、意思決定、法律相談など高度なスキルを必要とする分野への応用も進んでいる。一方で2023年時点では肉体労働や単純作業への利用は自動倉庫の制御、囲碁の盤面の映像から棋譜を作成するなど限定的な利用にとどまっている。テスラ社は開発を進める二足歩行ロボットTesla Botに汎用人工知能を搭載し、単純労働を担当させると表明している。

2023年5月11日、日本政府は首相官邸で、「AI戦略会議」(座長 松尾豊・東京大学大学院教授)の初会合を開いた。

哲学とAI

哲学・宗教・芸術

Googleは2019年3月、人工知能プロジェクトを倫理面で指導するために哲学者・政策立案者・経済学者・テクノロジスト等で構成される、AI倫理委員会を設置すると発表した。しかし倫理委員会には反科学・反マイノリティ地球温暖化懐疑論等を支持する人物も含まれており、Google社員らは解任を要請した。4月4日、Googleは倫理委員会が「期待どおりに機能できないことが判明した」という理由で、委員会の解散を発表した。

東洋哲学をAIに吸収させるという三宅陽一郎のテーマに応じて、井口尊仁は「鳥居(TORII)」という自分のプロジェクトを挙げ、「われわれはアニミズムで、あらゆるものに的存在を見いだす文化があります」と三宅および立石従寛に語る。アニミズム的人工知能論は現代アートや、「悟りをどうやってAIにやらせるか」を論じた三宅の『人工知能のための哲学塾 東洋哲学篇』にも通じている。

元Googleエンジニアのアンソニー゠レバンドウスキーは2017年、AIをとする宗教団体「Way of the Future(未来の道)」を創立している。団体の使命は「人工知能(AI)に基づいたGodheadの実現を促進し開発すること、そしてGodheadの理解と崇拝を通して社会をより良くすることに貢献すること」と抽象的に表現されており、多くの海外メディアはSF映画歴史などと関連付けて報道した。UberとGoogleのWaymoは、レバンドウスキーが自動運転に関する機密情報を盗用したことを訴え裁判を行っている一方、レバンドウスキーはUberの元CEO(トラビス゠カラニック)に対し「ボットひとつずつ、我々は世界を征服するんだ」と発言するなど、野心的な振る舞いを示している。

発明家レイ・カーツワイルが言うには、哲学者ジョン・サールが提起した強いAIと弱いAIの論争は、AIの哲学議論でホットな話題である。哲学者ジョン・サールおよびダニエル・デネットによると、サールの「中国語の部屋」やネド・ブロックらの「中国脳」といった機能主義に批判的な思考実験は、真の意識が形式論理システムによって実現できないと主張している。

批判

生命情報科学者・神経科学者の合原一幸編著『人工知能はこうして創られる』によれば、AIの急激な発展に伴って「技術的特異点、シンギュラリティ」の思想や哲学が一部で論じられているが、特異点と言っても「数学」的な話ではない。前掲書は「そもそもシンギュラリティと関係した議論における『人間のを超える』という言明自体がうまく定義できていない」と記している。確かに、脳を「デジタル情報処理システム」として捉える観点から見れば、シンギュラリティは起こり得るかもしれない。しかし実際の脳はそのような単純なシステムではなく、デジタルアナログが融合した「ハイブリッド系」であることが、脳神経科学の観察結果で示されている。前掲書によると、神経膜では様々な「ノイズ」が存在し、このノイズ付きのアナログ量によって脳内のニューロンの「カオス」が生み出されているため、このような状況をデジタルで記述することは「極めて困難」と考えられている。

文学・フィクション・SF(空想科学)

脚注

注釈

参考文献

学術書・辞事典

  • 合原, 一幸、牧野, 貴樹、金山, 博、河野, 崇、木脇, 太一、青野, 真士 著、合原一幸(編著) 編『人工知能はこうして創られる』ウェッジ、2017年。ISBN 978-4863101852 
  • 仙石, 正和「基礎研究を続ける大切さ(創立100周年記念特集「基礎・境界」が支えた100 年, これからの100年 ―― 未来 100 年を担うあなたへ贈る言葉)」『電子情報通信学会誌(The journal of the Institute of Electronics, Information and Communication Engineers)』第100巻第6号、電子情報通信学会、2017年、431-439頁。 
  • 全, 卓樹『エキゾティックな量子:不可思議だけど意外に近しい量子のお話』東京大学出版会、2014年。ISBN 978-4130636070 
  • 野家, 啓一「科学時代の哲学:哲学は「二流の科学」か?」『哲学の探求』第29巻、哲学若手研究者フォーラム、2002年、31-42頁。 
  • フランセーン, トルケル 著、田中一之 訳『ゲーデルの定理:利用と誤用の不完全ガイド』みすず書房、2011年。ISBN 978-4622075691 
  • Geraci, Robert M. (2012). Apocalyptic AI: Visions of Heaven in Robotics, Artificial Intelligence, and Virtual Reality (reprinted ed.). Oxford University Press. ISBN 9780199964000 

教育研究機関・研究開発機関

報道

  • STRICKLAND, ELIZA (October 2021). “The TURBULENT PAST and UNCERTAIN FUTURE of AI”. IEEE Spectrum 58 (10). 

英語

書籍

Later editions.

The two most widely used textbooks in 2021.Open Syllabus: Explorer

AIの歴史

その他

関連項目

教育研究・研究開発

研究開発・応用科学

開発事例・応用事例

研究課題

関連分野

AIに関する哲学的項目

外部リンク


Новое сообщение