Продолжая использовать сайт, вы даете свое согласие на работу с этими файлами.
人工知能
人工知能(英: artificial intelligence)、AI(エーアイ)とは、「『計算(computation)』という概念と『コンピュータ(computer)』という道具を用いて『知能』を研究する計算機科学(computer science)の一分野」を指す語。「言語の理解や推論、問題解決などの知的行動を人間に代わってコンピューターに行わせる技術」、または、「計算機(コンピュータ)による知的な情報処理システムの設計や実現に関する研究分野」ともされる。大学でAI教育研究は、情報工学科や情報理工学科コンピュータ科学専攻などの組織で行われている(工学〔エンジニアリング〕とは、数学・化学・物理学などの基礎科学を工業生産に応用する学問)。
『日本大百科全書(ニッポニカ)』の解説で、情報工学者・通信工学者の佐藤理史は次のように述べている。
「 | 誤解を恐れず平易にいいかえるならば、「これまで人間にしかできなかった知的な行為(認識、推論、言語運用、創造など)を、どのような手順(アルゴリズム)とどのようなデータ(事前情報や知識)を準備すれば、それを機械的に実行できるか」を研究する分野である。 | 」 |
ビル・ゲイツやイーロン・マスク、スティーブン・ホーキング、ヨシュア・ベンジオ、ピーター・ノーヴィグ、スチュアート・ラッセル、ジェフリー・ヒントンなどの専門家や著名人の多くが人類滅亡の可能性を含む、人工知能の将来的な危険性を指摘している。
概要
人間の知的能力をコンピュータ上で実現する、様々な技術・ソフトウェア・コンピュータシステム。応用例としては、自然言語処理(機械翻訳・かな漢字変換・構文解析・形態素解析等)、専門家の推論・判断を模倣するエキスパートシステム、画像データを解析し特定のパターンを検出・抽出する画像認識等がある。
2012年以降、Alexnetの登場で画像処理におけるディープラーニングの有用性が競技会で世界的に認知され、急速に研究が活発となり、第3次人工知能ブームが到来。2016年から2017年にかけて、ディープラーニングと強化学習(Q学習、方策勾配法)を導入したAIが完全情報ゲームである囲碁などのトップ棋士、さらに不完全情報ゲームであるポーカーの世界トップクラスのプレイヤーも破り、麻雀では「Microsoft Suphx(Super Phoenix)」がオンライン対戦サイト「天鳳」でAIとして初めて十段に到達するなど最先端技術として注目されている。第3次人工知能ブームの主な革命は、自然言語処理、センサーによる画像処理など視覚的側面が特に顕著であるが、社会学、倫理学、技術開発、経済学などの分野にも大きな影響を及ぼしている。
その一方、デジタルクローンによって、画風・声・歌声などを模倣したボーカルクローンなどによって仕事を奪うこと、氏名権などの法律の面からも問題視されている。
応用
文化的・芸術的な応用事例
音楽分野においては、既存の曲を学習することで、特定の作曲家の作風を真似て作曲する自動作曲ソフトが登場している。またリズムゲームに使われるタッチ位置を示した譜面を楽曲から自動生成するなど分野に特化したシステムも開発されている。
絵画分野においては、コンセプトアート用背景やアニメーションの中割の自動生成、、モノクロ漫画の自動彩色など、人間の作業を補助するAIが実現している。AIに自然言語で指定したイラスト生成させるサービス(Stable Diffusionなど)も登場している。このような人工知能を利用して制作された絵画は「人工知能アート(Artificial intelligence art)」と呼ばれているが、教師データとして利用された著作物の知的財産権などを巡り、深刻な懸念が広がっている。
将棋AIは人間同士・AI同士の対局から学習して新しい戦法を生み出しているが、プロ棋士(人間)の感覚では不可解ながら実際に指すと有用であるという。
人工知能による人類絶滅の危険を懸念する声が存在するが、一方で平和を促進するための文化的な応用も存在する。
画像生成の技術としては、VAE、GAN、拡散モデルといった大きく分けて三種類が存在する。
児童保護に関する応用事例
子どものネット上の安全に人工知能を入れることは、国連や欧州連合で継続的に注目されている。
医療に関する応用事例
医療現場ではAIが多く活用されており、最も早く導入されたのは画像診断と言われている。レントゲンやMRI画像の異常部分を検知することで、病気の見逃し発見と早期発見に役立っている。また、AIがカルテの記載内容や患者の問診結果などを解析できるよう、自然言語処理技術の発展も進んでいる。今後はゲノム解析による疾病診断、レセプトの自動作成、新薬の開発などが行えるよう期待されている。
また、症例が少ない希少疾患の場合、患者の個人情報の保護が重要になるため、データを暗号化した状態で統計解析を行う秘密計算技術にAIを活用して、データの前処理、学習、推論を行えることを目指す研究が行われている。
農業に関する応用事例
AIを搭載した収穫ロボットを導入することで、重労働である農作業の負担を減らしたり、病害虫が発生している個所をAIでピンポイントで見つけだして、農薬散布量を必要最小限に抑えたりすることが可能になる。また、AIで事前に収穫量を正確に予測できれば、出荷量の調整にも役立つ。
Googleは農作物のスキャニングと成長記録を行う農業AIロボット「Don Roverto」を開発。多くの苗の個体識別を行い実験を繰り返すことで、厳しい環境下でも耐えられる気候変動に強い種を瞬時に見つけ出せる。
日常生活への浸透
2023年現在、人工知能を用いたサービスが日常生活に浸透してきている。PCやスマートフォンの画像認識による生体認証や音声認識によるアシスタント機能はすでに普通のサービスとなっている。AIスピーカーが普及してきており、中国製掃除ロボットに自動運転技術が応用されている。
自動車の自動運転は、2023年4月にレベル4(一定条件下で完全に自動化した公道での走行)が解禁された。福井県永平寺町では実証実験に成功しており、2023年度中に運転許可を申請する方向で検討している。
2022年秋にChatGPTが公開されて以来、生成AIの活用も日常化しつつある。人工知能は未だに指示(専門用語でプロンプトと言う)に対して誤った回答を返すことも多いため、誤った回答を抑制するための過渡期の手法としてプロンプトエンジニアリングという手法も実践されている。加速度的な人工知能の性能向上を考慮した場合、遅くとも2020年代の内には人間との対話と同等の質問応答が可能となるため、プロンプトに対する人工知能特有の工夫は不要となる見通しがある。
議論・問題・批判
人類存亡のリスク
AIは人類が制御不能なほどに自らの性能を向上させる可能性があるとされる。著名なコンピューター科学者であるスチュアート・ラッセルとピーター・ノーヴィグによる大学レベルの標準的な教科書である『エージェントアプローチ人工知能』では、AIの危険性について、以下のように評価している。
AIの成功は人類の終わりを意味するかもしれない。ほとんどどんな技術でも、使い方を誤れば害になる可能性がある。しかしAIとロボティクスについては、技術自体が間違いを含んでいるかもしれないという新しい問題がある。
物理学者のスティーブン・ホーキングも「人類の終わりを告げる」可能性を指摘した。哲学者のニック・ボストロムは、十分に知的なAIが、ある目標の達成に基づいて行動を選択する場合、資源の獲得や停止されることから自身を守るなどの収束的行動を示すと論じている。このAIの目標が人類の目標を完全に反映していない場合、より多くの資源を獲得したり、停止されるのを防いだりするために、最終的には人類に危害を加える可能性を指摘し、AIがどんなに謙虚で「友好的」な目標を掲げていたとしても、AIは人類にリスクをもたらすと結論付けている。政治学者のチャールズ・T・ルービンは、「十分に高度な博愛主義は悪意と見分けがつかないかもしれない」とし、機械やロボットが人類の道徳システムを共有すると信じるアプリオリな理由がないため、機械やロボットが人類を好意的に扱うと仮定すべきではないと論じた。
AI関連の専門家や業界関係者の意見は千差万別で、かなりの割合が最終的に人間主体の管理が困難な性質を持つ高度に発展したAIの危険性を懸念する一方で、具体的な言及を控えて経済合理性などの商業的な観点から楽観的な立場を取る者も少なくない。スティーブン・ホーキング、マイクロソフト創業者のビル・ゲイツ、歴史学者のユヴァル・ノア・ハラリ、スペースX創業者のイーロン・マスクらは、いずれも将来の高度に発展したAIの取り扱いについて深刻な懸念を表明している。
- スティーブン・ホーキング「人工知能の発明は、人類史上最大の出来事だった。だが同時に『最後』の出来事になってしまう可能性もある」
- ビル・ゲイツ「これは確かに不安を招く問題だ。よく制御できれば、ロボットは人間に幸福をもたらせる。しかし、数年後、ロボットの知能は充分に発展すれば、必ず人間の心配事になる」
- イーロン・マスク「人工知能についてはかなり慎重にならないといけないと思います。おそらく人類の一番大きな脅威となりうるものですね。ですので、本当に慎重さが求められます。規制や監視が国レベル、あるいは国際レベルで必要だと思いますね。私たちが何か分別に欠けるようなことをしないためにね。人工知能は悪魔を呼び出すようなものですから」
この他にも、イーロン・マスクはAIについての深刻な懸念を繰り返し表明しており、「悪魔のような独裁者は、少なくともいつかは死ぬ。だが、AIに死が訪れることはない。永遠に生きる。つまり、絶対に逃れることのできない不死身の独裁者が現れるようなものだ」として、永遠に破壊されることのない危険なAIを作り出す危険性を警告したほか、「AIが核兵器よりも危険なものとなる可能性がある」と表明している。また、AI開発を巡る国家間の競争を「第三次世界大戦の原因」になりうると指摘、AIは文明が直面する最大のリスクであると述べている。
ピーター・ティールとマスクを含む著名なハイテク企業は、OpenAIやFLIなどの責任あるAI開発を支持する非営利企業に10億ドル以上を出資している。
一方で、Facebookのマーク・ザッカーバーグは、人工知能は現在の形で役に立っており、今後も人類の助けになり続けると述べている。リスクは研究する価値がないほど遠い将来である、あるいは超高知能AIから人類は便益を受けることになると主張する専門家もいる。 特にロドニー・ブルックスは「悪意ある」AIはまだ数世紀先だと述べている。
人工知能学会の松尾豊は、著書『人工知能は人間を超えるか』内に於いて、人間に対して反乱を起こす可能性を否定している。人工知能学会会長の野田五十樹は、「シンギュラリティ(技術的特異点)」や「2045年にAIが人間の知能を超える」という予測に対して「SFめいた話だ」と批判し、「そもそも“知能”が何を示すのか、定義をせずに語っても意味が無い。仮に知能が計算力を指しているのであれば、80年代からとっくに人間の能力を超えていることになる」と述べている。
2012年以前、社会学者ロバート・M・ゲラチは、AIとロボット工学(ロボティクス)を専攻しているカーネギーメロン大学の研究所を現地調査した結果、実際の研究はシンギュラリティ論とかけ離れた「世俗的現実」("the mundane reality")であると結論した。同氏はカーツワイルやハンス・モラベックらのシンギュラリティ論を「終末論的AI」("Apocalyptic AI")と呼び、そのような論自体に対しては支持も反論もしないと前提した。その上で、「終末論的AI」を大衆主義的な性質の強い通俗科学(pop science)の一種と見なしている。つまりそれは宗教・エンターテインメント・フィクション等と同じような、分かりやすくて興味を刺激する説明を使い、大勢の興味を引いて研究費を獲得しているとし、「終末論的AIは、実際のところ、金銭の要求である。("Apocalyptic AI is, indeed, a request for money.")」と述べている。
2023年3月29日、OpenAI、マイクロソフト、Alphabetなどが対話型の人工知能を相次いでリリースしていることを受け、非営利団体のフューチャー・オブ・ライフ・インスティチュートはChatGPTが開発したGPT-4を超える性能の大規模言語モデルを応用した人工知能技術はAI倫理の専門家が安全性に関する規範を策定するまで開発を停止すべきという公開書簡を発表した。書簡にはイーロン・マスク、DeepMindの研究者、Stable Diffusionを開発するStability AIとCEOのエマード・モスターク、ヨシュア・ベンジオ、スティーブ・ウォズニアックなど業界関係者ら1000人以上が署名している。なおOpenAI、マイクロソフト、Alphabetの幹部は署名していない。
Future of Life Instituteの書簡については、サイエンス・フィクション的であり、むしろ現時点での人工知能のデメリットに注目すべきであるという批判がなされている。プリンストン大学の研究者であるアーヴィンド・ナラヤナンとサヤシュ・カプールは、人工知能の現実的なリスクとして、不正確なツールへの依存による誤情報、中央集権的な権力と労働搾取による雇用への悪影響、セキュリティ上のリスクといった3点を重視すべきであると指摘し、元Googleの研究者であるティムニット・ゲブルはAIの現実的な害を軽減するために、透明性を強制する法規制の必要性を指摘した。
2023年5月、人工知能研究の第一人者として知られるジェフリー・ヒントンは、想定より遥かに速くAIが進歩する危険性について自由に話すためとして、Googleを退社したことを公表した。ヒントンは、AIが偽の画像や文章を作成する能力を持ち「何が真実なのか分からなくなる」世界を作り出すことを懸念しており、「悪用をどのように防げばいいのか見当がつかない」と述べた。ヒントンはGoogleは「責任を持って行動した」としており、Googleを批判する意図はないとしている。ヒントンの退社を受け、オックスフォード大学AI倫理研究所のカリッサ・ベリズは、「今こそAIを規制する時期だ」と述べた。
ディープフェイク
人工知能の負の側面として、詐欺や思考誘導、世論操作を行う目的で、捏造した顔画像や映像、フェイク音声、フェイク文章といったフェイクメディアを流通させる可能性がある。すでに日本国内においてもStable Diffusionを使って捏造された災害画像が拡散する事例もあり、AIを悪用した詐欺や詐称、名誉毀損は現実の脅威となっている。このため国内外で対策のための研究が進められている。
ディープフェイクなどAIを利用した政治目的の偽情報の対策のため、アメリカでは2020年に2つの連邦法が成立した。国防授権法とIOGAN法である。IOGAN法は生成AIによって出力されたものを含む、操作あるいは合成されたメディアに対抗するための研究を国家レベルで支援することを定めた。中国でも国防上の観点からAIに強い規制が科せられており、プラットフォーマーにも強い義務が課せられている。
著名人のポルノ画像も人工知能を悪用して偽造されるようになっており、Twitchで人気を集める配信者のQTCinderellaは、偽造ポルノ画像を家族に送付される嫌がらせを受けた。南カリフォルニア大学の専門家は、フェイクポルノを拡散された教員が失職に追い込まれた例もあったと証言している。フェイクポルノが大量に公開されたウェブサイトも出現しており、合法的なアダルトコンテンツに経済的な脅威を与える可能性が懸念されている。
OpenAIが提供する画像生成AIはフェイクポルノに悪用されないように、特定のリクエストの入力をブロックするような対策がされている一方で、モデルが公開されているStable Diffusionには名目上ポルノ生成を抑止するような方策が取られているものの、実際にはそれを回避した性的なコンテンツの生成が可能である。カリフォルニア大学バークレー校教授のハニー・ファリドによれば、インターネット上に公開された何億もの画像データを学習する過程で、女性を性的に扱うバイアスが反映されるため、モデルの出力を100%制御することは困難であるとされる。2022年11月にリリースされた「Lensa」も、女性の写真を全裸にしたり、胸を大きくするなどの加工に悪用できるとされ、問題視されている。
Kickstarterでは、Stable Diffusionによるポルノの作成を目指す出資プロジェクトが、集めた資金で既存の画像を学習データとして利用することが、多くのアーティストから批判されていることを受け、AIアートに関する条項を変更し、プロジェクトをブロックした。
2023年3月には画像生成AIで作成された政治的なディープフェイクが現実の問題となった。問題となったのはドナルド・トランプ元大統領のディープフェイク画像で、オープンソースの調査機関の創設者であるエリオット・ヒギンズは「逮捕されて倒れているドナルド・トランプ」といったプロンプトを画像生成AIの一種であるMidjourneyに入力して、警察官に拘束されたトランプの画像を捏造し、Twitterに投稿した。この衝撃的な画像は、すぐに「ドナルド・トランプ元大統領が逮捕され、刑務所に護送された」といったメッセージとともに、Facebookなどのソーシャルメディアで拡散された。
この事件について、米上院情報委員会の委員長であるマーク・R・ワーナーは「立法者は、合成された画像が偽情報の拡散や、混乱や不和を起こすために悪用される可能性について何年も前から警告してきた」と述べた上で、「製品が合理的に予見できる被害を直接的に可能にするのであれば、潜在的な責任を問われる可能性がある」と人工知能の危険性に対する企業の義務に言及した。
人権侵害
マサチューセッツ工科大学の教授ローレン・R・グレアムは、莫大な資金力と人権の弾圧を併せ持つ中国が人工知能の開発競争で成功すれば、民主的な国家が技術革新に優位という既成概念が変わると述べ、「ディープラーニングの父」の一人と呼ばれているヨシュア・ベンジオは、中国が市民の監視や政治目的で人工知能を利用していることに警鐘を鳴らしており、世界の人権団体やメディアは、中国に代表される人工知能で人権を抑圧する政治体制を「デジタル権威主義」「デジタル独裁」「デジタル警察国家」「デジタル全体主義」「AI独裁」と呼んだ。
中国では、ヘルメットや帽子に埋め込んだセンサーから、国民の脳波と感情を人工知能で監視する、中国政府支援のプロジェクトが推し進められ、ネット検閲と官僚や刑務所の囚人から横断歩道の歩行者まで監視を人工知能に行わせ、監視カメラと警察のサングラス型スマートグラスやロボットに顔認識システム(天網)を搭載するなど人工知能による監視社会・管理社会化が行われている。
新疆ウイグル自治区では、監視カメラや携帯電話などから収集した個人情報を、人工知能で解析するプレディクティブ・ポリシングや人種プロファイリングで選別した少数民族のウイグル族を法的手続きを経ずに、2017年6月時点で約1万5千人もテロリズムや犯罪を犯す可能性があるとして、新疆ウイグル再教育キャンプに予防拘禁しているとする、中国政府の内部文書であるチャイナ・ケーブルが報じられており、AIを使った政府による特定の民族の選別や、コンピュータが人間を強制収容所に送る人権蹂躙は「前例がない」として、国際問題になっている。香港では、中国本土と同様の人工知能による監視社会化を恐れ、2019年-2020年香港民主化デモが起きた際は、監視カメラを搭載したスマート街灯が、市民に次々と破壊された。
中国は、AI監視技術を中東・アジア・アフリカなど、世界各国に輸出しており、国際連合の専門機関である国際電気通信連合(ITU)を通じて、中国がAI監視技術の国際標準化も主導してることから、中国のような人権侵害が世界に拡散することが、人権団体から懸念されている。
半自動の四脚ロボット「Spot(スポット)」は、ニューヨーク市警によって現場に配備されていたが、市民らの抗議により利用中止になった。「一般的に大半のSpotは、故障した送電線やガス漏れの調査などに使われている」反面、警察は市民らの承認を得ずにSpotを購入し利用していたため、「ロボット犬」とレッテルが貼られた。
差別
AIプログラムは、実世界のデータによるバイアスが生じることがある。このバイアスはプログラムによって学習されるため、AIの開発者はバイアスが存在することに気づかないことが多い。バイアスは学習データの選択方法によって不注意に導入される可能性がある。また相関関係から出現することもある。AIは個人をグループに分類し、その個人がグループの他のメンバーに類似していると仮定して予測を行うために使用されるが、場合によっては、この仮定は不当であるかもしれない。この例として、COMPASは、被告人が再犯者になる可能性を評価するために、アメリカの裁判所によって広く使用されている商用プログラムであるが、プロパブリカは、COMPASが割り当てた黒人の被告の再犯リスクレベルは、プログラムが被告の人種を知らされていなかったにもかかわらず、白人の被告のそれよりもはるかに過大評価される可能性があると主張している。 アルゴリズムのバイアスが不公平な結果につながる可能性がある他の例は、信用格付けや採用の判断にAIが使われる場合である。
AIの出力結果は入力値を改竄したり、恣意的にバイアスを含むような訓練データを準備することなどの手法で操作できるため、差別やハラスメント、その他の不正行為に対する法的責任を回避するように悪用することが可能である。例えば、「AIが判断したんだから正しい」として部下に無理難題を押し付けるようなパワーハラスメントが想定されるため、AIモデルの説明責任が重視されている。
中国の社会信用システムに代表されるような、人工知能でビッグデータを活用して人々の適性を決める制度は、社会階層間の格差を固定化することに繋がるとする懸念があり、欧州連合では2018年5月から、人工知能のビッグデータ分析のみによる、雇用や融資での差別を認めない、EU一般データ保護規則が施行された。
マサチューセッツ工科大学が顔認識システムの精度で、Microsoftと中国のMegviiは9割超で、IBMは8割に達したのに対して、Amazon.comは6割で人種差別的なバイアスがあるとする研究を発表した際は、Amazon.comと論争になった。
軍事利用
2022年のウクライナとロシアの戦争でも人工知能が重要な役割を果たすと経済平和研究所は報告している。主要国の軍隊は、ミサイル防衛の分野での自動化を研究しており、一部は実現している。アメリカ海軍は完全自動の防空システム「ファランクスCIWS」を導入しガトリング砲により対艦ミサイルを破壊できる。イスラエル軍は対空迎撃ミサイルシステム「アイアンドーム」を所有し、ガザ地区との境界線には標的を自動検知するガーディアムやサムソン RCWSを稼働させて複数の人間を射殺している。今後AIは新しい軍事能力を生み、軍の指揮、訓練、部隊の展開を変え、戦争を一変させその変化は大国間の軍事バランスを決めることになるとの主張もある。作戦行動中の意思決定を補助するシステムも開発されており。P-1には戦術航空士の支援用として各種データを解析し最適な作戦を指示する戦闘指揮システムが搭載されている。
2016年6月、米シンシナティ大学の研究チームが開発した「ALPHA」は、元米軍パイロットとの模擬空戦で一方的に勝利したと発表された。AIプログラムは遺伝的アルゴリズムとファジィ制御を使用しており、アルゴリズムの動作に高い処理能力は必要とせず、Raspberry Pi上で動作可能。アメリカ合衆国国防総省は、人道上の観点から人間の判断を介さない自律殺傷兵器の開発禁止令を2012年に出し、2017年にはこれを恒久的なものにした。
一部の科学者やハイテク企業の首脳らは、AIの軍事利用により世界の不安定化は加速すると主張している。2015年にブエノスアイレスで開催された人工知能国際合同会議で、スティーブン・ホーキング、アメリカ宇宙ベンチャー企業のスペースX創業者のイーロン・マスク、Appleの共同創業者のスティーブ・ウォズニアックら、科学者と企業家らにより公開書簡が出されたが、そこには自動操縦による無人爆撃機や銃火器を操る人型ロボットなどAI搭載型兵器は、火薬、核兵器に続く第3の革命ととらえられ、うち一部は数年以内に実用可能となると予測。国家の不安定化、暗殺、抑圧、特定の民族への選別攻撃などに利用され、兵器の開発競争が人類にとって有益なものとはならないと明記された。
2015年4月には、ハーバード大学ロースクールと国際人権団体であるヒューマン・ライツ・ウォッチが、自動操縦型武器の禁止を求めている。2017年11月には、国際連合でAIの軍事利用に関する初の公式専門家会議が行われ、2019年8月に同会議は、AI兵器の運用をめぐる事実上初の国際ルールを採択するも、法的拘束力は盛り込まれなかった。
2019年から、アメリカ国防総省とJAICが2030年に向けて戦術や戦闘方式に革命を起こすために「結合全ドメイン指揮統制」とよばれるシステムの構築と導入を進めている。空軍、陸軍、海兵隊、海軍および宇宙軍の全ての軍種のセンサーをJADC2内のネットワークに接続する。加えてAIを用いて敵国の行動予測、偵察活動の自動化を実現し、戦術策定、戦闘計画の自動生成も行う。Palantirやボーイングがこの開発に関わっている。
アメリカ国防高等研究計画局や米空軍研究所は、Rebellion DefenseやHeron Systemsといったベンチャー企業と協力して、XQ-58A等の無人戦闘機の空中戦闘能力をAIを用いて強化する技術開発を進めている。またMQ-9、B21といった偵察爆撃機にCNNのような画像認識AIを導入する取り組みも進めている。Rebellion Defenseは元Google会長のエリックシュミットが出資しており、以前米国防総省がGoogleのTensorFlowを使用して画像認識技術の軍事転用をしようと試み、それが文書で明らかになってからGoogle社内から批判の声が上がったこともある。
2022年12月、ロッキード・マーティンが、AIエージェントの自律操縦ソフトを実装し、17時間以上の戦闘機の訓練飛行を完了した。
東西対立
新冷戦や米中冷戦の状態にあるとも評されている、アメリカ合衆国・中国・ロシアは、核開発に匹敵する開発競争を人工知能の軍事利用をめぐって行っている。
中国は、2017年6月に119機のドローン群の自律飛行実験で、前年2016年に103機の飛行実験に成功したアメリカ軍の記録を更新して、翌2018年5月には北アメリカの都市を爆撃するCG映像も発表し、同年6月には56隻の自律無人艇を使った世界最大規模の試験を行うなど、AIの軍事利用の技術(特にスウォームと呼ばれる大量の徘徊型兵器などの自律兵器の統合運用)で中国が急速に進展しており、アメリカに追い付く可能性があることについて懸念し、アメリカ合衆国では将来に備える必要があるとの主張もされている。
中国の軍用AI開発は、アメリカ軍や政界に危機感を与え、2019年3月にジョセフ・ダンフォード統合参謀本部議長やパトリック・シャナハン国防長官代行、ドナルド・トランプ大統領は、中国でのAI研究拠点の設立などで中国人民解放軍に協力していると、Googleを非難し、GoogleのCEOサンダー・ピチャイはダンフォードやトランプ大統領と面談して、中華人民共和国のAI研究拠点の成果は、中国に限らず全ての人々に開放されていると釈明する事態になった。
アメリカ合衆国では、Googleがアメリカ軍のAIの軍事利用に協力する極秘計画「メイヴン計画」を行っていたことが、Googleの社員に暴露されており、2018年12月のアメリカ合衆国議会の公聴会では、同様に暴露された中国政府に協力する秘密計画「ドラゴンフライ計画」とともに、人工知能を用いた兵器開発や人権侵害は拒否するとGoogleが誓った、2018年6月の人工知能開発6原則との整合性で、追及を受けた。
中国人民解放軍の戦闘機J-20の標的選択支援アルゴリズムに、GoogleのAI研究者が関わったと報道された際は「AIではなく、統計学的なモデリング」と否定した。また、Microsoftが中国軍の教育機関とAIの共同研究を発表した際も、同様に波紋を呼んだ。
2019年11月にマーク・エスパー国防長官は、中華人民共和国がAIによって新しい監視国家を構築しているだけでなく、中東で翼竜や彩虹など無人攻撃機を大量に拡散させて、AIで自律的に攻撃するドローン兵器も販売していることに警鐘を鳴らした。
ロシアと中国は、既に実用化してるとされるハッキングの自動化の他、特定の個人を攻撃したりディープフェイクでなりすましたり、ボット投稿により世論を操る等の懸念が挙げられている。
経済への影響・雇用問題
過去において、技術革新は総雇用を減らすよりもむしろ増やす傾向があったが、経済学者はAIについて「我々は未知の領域にいる」と認めている。経済学者の調査では、ロボットやAIの使用の増加が長期的な失業の大幅な増加を引き起こすかどうかについて意見が分かれた。
以前の自動化の波とは異なり、多くの中産階級はAIによって失業に追い込まれるかもしれないという見解もあり、『エコノミスト』誌は、産業革命の間に蒸気機関がブルーカラー労働者の失業をもたらしたことと同様に、AIがホワイトカラーを失業に追い込むという懸念を「真剣に考える価値がある」としている。失業のリスクが非常に高い仕事はパラリーガルからファーストフードの調理担当までにわたるが、一方で個人向けのヘルスケアから聖職者に至るケア関連の専門職で雇用が増加すると想定される。
オックスフォード大学のマイケル・オズボーン博士が2013年に発表した論文によれば、人工知能やロボット等による代替可能性が高い労働人口が日本で約49%いること(アメリカは約47%、イギリスは約35%)、2030年代までにファストフード店で料理をする従業員が、ロボットやAIに取って代わられる可能性が81%と高いことを指摘されている。
2022年にStable Diffusionをベースにした画像生成AIが出現すると、AIアートがイラストやデザインの分野で働くアーティストを代替する可能性が危惧された。ポーランドのデジタルアーティストであるグレッグ・ルトコフスキは自身の画風を模倣するように調整されたAIによって、被害を受けていることを明らかにした。AIが生成した画像のアップロードを禁止するイラスト投稿サイトも増加している
アメリカでは声優を模倣する合成音声を生成するAIの教師データとして声の利用を契約で迫る例が増えており、業界の全分野を失業に追い込む懸念がある。Apex Legendsなどの人気ゲームに出演する声優のフリーダ・ウォルフは合意や追加の補償なしに自身の音声データを利用する搾取に繋がるとして懸念を表明したほか、フォートナイトなどの声優であるサラ・エルマレは、自身の声を模倣した音声合成AIによって不本意な内容のセリフが読み上げられることの可能性を問題視した。
ほかにも、中程度の技能を有するルーティン業務が減少し、専門技能が求められない低スキルの仕事と、専門知識や高度な技能が求められる仕事へと2極化していき、経済格差が拡大していくとの予測もある。
経済学者でマサチューセッツ工科大学教授のダロン・アシモグルらの研究では、離職促進効果を持つ過度な自動化技術は労働需要の減少を通じて、雇用、賃金を減少させ、社会全体の生産性を低下させる。そして、経済に歪みを広げ、貴重な経済余剰を浪費させ、経済格差を拡大させ、社会の不満と多くの社会問題を引き起こす可能性も指摘した。この分析からアセモグルは、政策面で自動化技術の促進よりも、新しいタスクや労働を補完するようなテクノロジーを推進することが望ましく、脱炭素など別の分野に技術革新の方向を転換すべきであるとしている。
データ倫理・著作権
2022年にStable Diffusionなどの既存の画像から絵柄などを学習して自動生成するAIが登場すると、著作権に関する問題が発生した。画像生成AIは、アーティストがWeb上に公開した作品をスクレイピングして教師データを確保しているが、作品を制作したアーティストの同意や許可を得ずに行われることが多い。そのため、画像生成AIが著作権法に違反しているのではないかという疑問が投げかけられた。
オレゴン州在住の漫画家サラ・アンダーソンら3人の原告はAIアートの違法性を訴え、オープンソースの画像生成AI・Stable Diffusionの開発元であるStability AIとStable Diffusionを利用した画像生成サービスを展開するMidjourney、DeviantARTの3社に対して訴訟を提起した。画像生成AIは、教師データを確保するためにインターネット上から何十億もの画像をスクレイピングしているが、その画像の大半は著作権で保護されており、同意も得ていないため、画像生成AIには倫理的・法的問題が生じている。アンダーソンは『ワシントン・ポスト』紙の取材に対し、「AIは私の作品を盗んだ」と答えた一方、Stability AI、Midjourney、DeviantARTの3社はいずれも取材を拒否した。
全米漫画家協会会長のジェイソン・チャットフィールドは、多くのアーティストが画像生成AIの開発元企業に対し、同意と報酬、クレジットの付与を求めているとし、立法の遅れが予想されるため、技術の倫理的使用のために公開討論や訴訟が必要になると主張したほか、イラストレーター協会の元会長であるティム・オブライエンは、アーティストの名前をプロンプトとして使用するような、画像生成AIを許可すべきではないと主張した。
計算機科学者でプリンストン大学教授のアーヴィンド・ナラヤナンは、AIとクリエイターの対立について同様の意見を展開し、「画像生成AIを開発する企業は同意や補償なしに訓練用画像を収集するなど、アーティストに敵対するような方法で開発・デプロイを行っている」とした上で、「特定のアーティストの画風に寄せた画像生成ツールを許容することは、アーティストの労働や視覚的な独自性を明確に流用しているケースのように思える」と述べ、「開発者は、アーティストを訓練用の素材ではなく、パートナーや利害関係者として扱うこともできたはずだ」と画像生成AIの現状に異を唱えた上で、「この現状が必然だったと主張する人物は、企業が責任ある技術開発をできなかったことの言い訳をしているに過ぎない」と結論付けた。
英国のストックフォト企業であるGetty Imagesも画像生成AIが膨大な量の画像を盗用し、知的財産権を侵害しているとしてStable Diffusionの提供会社への損害賠償請求訴訟を提起した。画像生成AIはアーティストの知的財産である作品をベースに画像を生成するが、その作品の作者には補償されないし、著作権者の許可も得ていないことが問題視されている。日本の著作権法では学習データとしての利用は合法であるが、他者が著作権を有する絵画を学習した人工知能に対し、学習したものと同等の画像の出力を指示した場合には著作権侵害となる。
『ハーバード・ビジネス・レビュー』は、ネット上に公開された無数の著作物を訓練データとして利用する現行の画像生成AIについて、知的財産権を侵害している可能性があるとして、潜在的な法的リスクを指摘している。そして、訓練データが権利者のライセンスを受けていることが望ましく、生成されたコンテンツの出所を示す手段が必要であるとしている。
画像生成AIの開発企業はアーティストの権利を尊重すると称して、著作物を訓練データから除外するためのオプトアウトの申請を受け付けている。しかし『ハーバード・ビジネス・レビュー』は、このオプトアウトは知的財産権を保護する責任を権利者に押し付けているとして、オプトアウトよりもオプトインが適切であると批判している。
2023年4月3日、東京大学は理事・副学長の太田邦史の署名付き文章で、全学生・教員向けにMidjourney、Stable Diffusion等の生成AIの利用に関する注意喚起を行った。画像生成AIが、インターネット上のコンテンツを取り込んで学習し、画像を生成しており、これらの元データの作成者が知らないうちに著作権を侵害されたとして、問題提起を行っている現状を指摘。将来的に画像生成AIが生み出したコンテンツが訴訟の対象になる可能性に言及した。
なお、米国著作権局によれば、AIによって生成されたアートは著作権で保護されることはない。アーティストが使う他のツールと比較して、テキストプロンプトによる画像生成AIの具体的な出力は予測不可能であるため、著作権上の扱いが異なるとされる。
OpenAIが公開するChatGPTも、文章生成に報道機関の記事を無報酬で使用しているとして批判を受けている。『ウォール・ストリート・ジャーナル』紙の発行元であるダウ・ジョーンズのジェイソン・コンティは「人工知能の訓練にウォール・ストリート・ジャーナルの記事を使う場合は、ダウ・ジョーンズから権利をきちんとライセンスすべきである」と述べ、「OpenAIはダウ・ジョーンズとそのような契約を結んでいない」と批判した。コンティは「ジャーナリストの記事の悪用を真剣に受け止めており、この状況を精査している」と付け加え、懸念を表明している。
画像生成AIの訓練データの収集方法については「データ・ロンダリング」がなされているとの批判を受けている。つまり、ツールの提供会社が直接データを収集・利用するのではなく、非営利の研究機関を間に挟むことで、「研究目的」として著作物を収集することができ、著作物の使用に対する対価を払うことなく、データの商用利用を行なっているとされる。事実、Stable Diffusionの提供元企業は非営利団体への資金提供を経てデータ収集を行い、このデータセットを使ってモデルを構築した。
人工知能の訓練データに利用されている個人情報や、芸術作品などのオプトアウトや著作権の問題についても、個人データの削除権が明記されているGDPRが注目されている。
法律・規制
差別やハラスメントなど、AIの結果を盾にとって不正行為を行い、法的責任を逃れようとする悪用が懸念されている。AIの出力結果は入力値を改竄したり、恣意的にバイアスを含むような訓練データを準備することなどの手法で操作できるとされる。また、AIの出した良くない出力が、悪用の結果なのか、誤用の結果なのか、AIの学習機能によって予測できなかった出力なのか、十分に判断する技術も未だ開発されていない。AIは性善説によって開発されてきたが、AIの普及に伴い不正目的での開発や悪用も視野に入れての開発や運用が要請される。技術的な対策だけでは悪用・誤用を十分に防ぐことは難しいため、法制度・社会制度による救済手段の整備が求められる。
欧州のAI規制はこのような悪用の懸念を反映しており、GDPR22条では「計算機(AI)のプロファイリングから自動的に出てきた決定に服さなくてよい権利」を明記している。この方法として、「プロファイリングに使用した入力データを開示させる」「出力された決定に対する説明を人間に果たさせる」の2点が報告された。
しかし、前者は守秘義務や企業秘密があるため実効性は疑問視されており、後者も不十分とされているため、「IEEE EAD version2」では説明可能なAIとして、AIの推論の道筋と用いた入力データを明確化すること、AIの出した結果に疑問が生じた場合に内部告発を可能にする制度を確保すること、AIが悪用された際の救済策を国家レベルで立法化すること、保険などの経済的救済策の整備の4点が明記された。
ほかにも、AIに関する規制や政策の状況は、世界各地で新たな問題となっている。2016年から2020年の間に、30カ国以上がAIに関する専用の戦略を採用していた。ほとんどのEU加盟国がAI国家戦略を公開しており、カナダ、中国、インド、日本、モーリシャス、ロシア、サウジアラビア、アラブ首長国連邦、米国、ベトナムも同様であった。また、バングラデシュ、マレーシア、チュニジアを含む第三国も独自のAI戦略を構築している。 2020年6月にGPAIが発足し、AI技術に対する国民の期待と信頼を確保するために、AIが人権と民主主義の価値観に従って開発される必要性を表明した。2021年11月には、ヘンリー・キッシンジャー、エリック・シュミット、およびダニエル・ハットンロッハーがAIを規制する政府委員会の招集を求める共同声明を発表した。
生成AIのリスクに対して、欧州を中心に規制の動きが広がっているが、GoogleやMetaなどの巨大IT企業が規制を回避するためのロビー活動を活発化させている。推計では1億ドル(約137億円)に及ぶ資金を費やしているとされる。
法律事務など、法的規制のあるサービスをAIで代行する行為に関しては法律が定まっていない。2023年、弁護士ドットコムでは過去の相談事例を学習させたChatGPTによる法律相談サービスを開始すると発表したが、弁護士法では弁護士や弁護士法人など弁護士資格を有する自然人や法人を想定しており、どちらでもないAIがチャットで相談に応じると法律事務とみなされる可能性があるため、サービスを無償で提供することで問題を回避するとした。
スパム・詐欺
RedditではChatGPTを悪用したスパムが大量に発生しており、「大災害」と評されるほどに対応に苦慮している。ChatGPTのリリース後、大麻やポルノ、ギャンブル、ゲームの宣伝を目的にしていると思われるスパムが急増し、モデレーターは大量のbotアカウントの凍結に追われた。Redditでは従来も宣伝目的のスパムやアストロターフィングが問題だったが、ChatGPTはこの問題を大きく悪化させている。従来のスパム行為はコピー・アンド・ペーストに依存して単純だったが、ChatGPTは新しい文面を簡単に生成できることから、より対処が困難になった。
誇大広告
計算機科学者でプリンストン大学教授のアーヴィンド・ナラヤナンは、メディアによるAIの誇大広告に対して警鐘を鳴らし続けている人物である。ナラヤナンは2019年に「インチキAIの見分け方」を発表し、AIの成果とされるサービスの多くが詐欺に近いものであると主張し、研究者、企業、メディアがAIに関する誇大広告を無自覚に作り出し、一般のAIに対する理解が歪められていると述べている。ナラヤナンはChatGPTに対して一部有用性を認めながらも、批判的な立場を採り、画像生成AIに関しても、メディアが過度に擬人化して宣伝するなど、誤解を招くような印象を蔓延させ、誇大広告に加担していると指摘している。
ナラヤナンはAI関連の報道で注意すべき点を複数挙げている。その一部を紹介する。
- AIに関する記事にロボットと関係なくても人型ロボットの画像を使い、AIが具現化するという誤った印象を読者に暗示する
- AIが人間と同じように学習すると暗示して人間の知能とAIを比較する
- AIが狭い範囲の環境でしか機能しないのに触れないまま、AIツールが人間のスキルよりも優れていると比較する
世界の研究開発事例
Googleはアレン脳科学研究所と連携し脳スキャンによって生まれた大量のデータを処理するためのソフトウェアを開発している。2016年の時点で、Googleが管理しているBrainmapのデータ量はすでに1ゼタバイトに達しているという。Googleは、ドイツのマックスプランク研究所とも共同研究を始めており、脳の電子顕微鏡写真から神経回路を再構成するという研究を行っている。これらの大型脳研究計画は、米国や欧州で立ち上がっている。
中国では2016年の第13次5カ年計画からAIを国家プロジェクトに位置づけ、脳研究プロジェクトとして中国脳計画も立ち上げ、官民一体でAIの研究開発を推進している。中国の教育機関では18歳以下の天才児を集めて公然とAI兵器の開発に投じられてもいる。マサチューセッツ工科大学(MIT)のエリック・ブリニョルフソン教授や情報技術イノベーション財団などによれば、中国ではプライバシー意識の強い欧米と比較してAIの研究や新技術の実験をしやすい環境にあるとされている。日本でスーパーコンピュータの研究開発を推進している齊藤元章もAIの開発において中国がリードする可能性を主張している。世界のディープラーニング用計算機の4分の3は中国が占めてるともされる。米国政府によれば、2013年からディープラーニングに関する論文数では中国が米国を超えて世界一となっている。FRVTやImageNetなどAIの世界的な大会でも中国勢が上位を独占している。大手AI企業Google、マイクロソフト、Appleなどの幹部でもあった台湾系アメリカ人科学者の李開復は中国がAIで覇権を握りつつあるとする『AI超大国:中国、シリコンバレーと新世界秩序』を著してアメリカの政界やメディアなどが取り上げた。
フランス大統領エマニュエル・マクロンはAI分野の開発支援に向け5年で15億ドルを支出すると宣言し、AI研究所をパリに開き、フェイスブック、グーグル、サムスン、DeepMind、富士通などを招致した。イギリスともAI研究における長期的な連携も決定されている。EU全体としても、「Horizon 2020」計画を通じて、215億ユーロが投じられる方向。韓国は、20億ドルを2022年までに投資をする。6つのAI機関を設立し褒賞制度も作られた。目標は2022年までにAIの世界トップ4に入ることだという。
日経新聞調べによると、国別のAI研究論文数は1位米国、2位中国、3位インド、日本は7位だった。
歴史
AIの構築が長い間試みられてきているが、シンボルグラウンディング問題とフレーム問題の解決が大きな壁となってきた。
初期
17世紀初め、ルネ・デカルトは、動物の身体がただの複雑な機械であると提唱した(機械論)。ブレーズ・パスカルは1642年、最初の機械式計算機を製作した。チャールズ・バベッジとエイダ・ラブレスはプログラム可能な機械式計算機の開発を行った。
バートランド・ラッセルとアルフレッド・ノース・ホワイトヘッドは『数学原理』を出版し、形式論理に革命をもたらした。ウォーレン・マカロックとウォルター・ピッツは「神経活動に内在するアイデアの論理計算」と題する論文を1943年に発表し、ニューラルネットワークの基礎を築いた。
1900年代後半
1950年代になるとAIに関して活発な成果が出始めた。1956年夏、ダートマス大学が入居している建物の最上階を引き継いだ数学と計算機科学者のグループの一人である若き教授ジョン・マッカーシーはワークショップでのプロポーザルで "Artificial Intelligence" という言葉を作り出している。ワークショップの参加者は、オリバー・セルフリッジ、レイ・ソロモノフ、マービン・ミンスキー、クロード・シャノン、ハーバート・サイモン、アレン・ニューウェルなどであった。ジョン・マッカーシーはAIに関する最初の会議で「人工知能」という用語を作り出した。彼はまたプログラミング言語LISPを開発した。知的ふるまいに関するテストを可能にする方法として、アラン・チューリングは「チューリングテスト」を導入した。ジョセフ・ワイゼンバウムはELIZAを構築した。これは来談者中心療法を行うおしゃべりロボットである。
1956年に行われた、ダートマス会議開催の提案書において、人類史上、用語として初めて使用され、新たな分野として創立された。
1960年代と1970年代の間に、ジョエル・モーゼスは
1980年代に、ニューラルネットワークはバックプロパゲーションアルゴリズムによって広く使われるようになった。
また、この時代にロドニー・ブルックスが、知能には身体が必須との学説(身体性)を提唱した。
1990年代はAIの多くの分野で様々なアプリケーションが成果を上げた。特に、ボードゲームでは目覚ましく、1992年にIBMは世界チャンピオンに匹敵するバックギャモン専用コンピュータ・TDギャモンを開発し、IBMのチェス専用コンピュータ・ディープ・ブルーは、1997年5月にガルリ・カスパロフを打ち負かし、同年8月にはオセロで日本電気のオセロ専用コンピュータ・ロジステロに世界チャンピオンの村上健が敗れた。国防高等研究計画局は、最初の湾岸戦争においてユニットをスケジューリングするのにAIを使い、これによって省かれたコストが1950年代以来のAI研究への政府の投資全額を上回ったことを明らかにした。日本では甘利俊一らが精力的に啓蒙し、優秀な成果も発生したが、論理のブラックボックス性が指摘された。
1998年には非構造化データ形式の国際規格であるXMLが提唱されたが、ここからWeb上の非構造化データに対して、アプリケーション別に適した意味付けを適用し、処理を行わせる試みが開始された。同年に、W3Cのティム・バーナーズ=リーにより、Webに知的処理を行わせるセマンティック・ウェブが提唱された。この技術はWeb上のデータに意味を付加して、コンピュータに知的処理を行わせる方法を国際的に規格化するものである。この規格には知識工学におけるオントロジーを表現するデータ形式のOWLも含まれていることから、かつて流行したエキスパートシステムの亜種であることが分かる。2000年代前半に規格化が完了しているが、Web開発者にとっては開発工数に見合うだけのメリットが見出せなかったことから、現在も普及はしていない。
日本における第二次AIブーム
日本においてはエキスパートシステムの流行の後にニューロファジィが流行した。しかし、研究が進むにつれて計算リソースやデータ量の不足,シンボルグラウンディング問題,フレーム問題に直面し、産業の在り方を激変させるようなAIに至ることは無く、ブームは終焉した。
エキスパートシステム(知識工学の応用)
1980年代に入って、大企業の研究所を中心に、知識工学に基づくエキスパートシステムが多数提案されるようになり、エキスパートシステムを専門とするAIベンチャーも次々と立ち上がった。その流行から生まれた究極のプロジェクトとして第五世代コンピュータが挙げられる。
探索
知識や組み合わせを探索する手法として、ボードゲームの分野では2006年からモンテカルロ木探索という手法が研究されはじめた。モンテカルロ法は自動定理証明という分野で活用されていたものである。今では人工知能と呼ばれていないが、カーナビのルート探索アルゴリズムはダイクストラ法が用いられている。
第五世代コンピュータ(高性能なProlog推論マシン)
1982年から1992年まで日本は国家プロジェクトとして570億円を費やして第五世代コンピュータの研究を進めるも、採用した知識工学的手法では膨大なルールの手入力が必要で、専門家間で専門知識の解釈が異なる場合には統一したルール化が行えない等の問題もあり、実用的なエキスパートシステムの実現には至らなかった。実現した成果物はPrologの命令を直接CPUのハードウェアの機構で解釈して高速に実行する、並列型のProlog専用機であるが、商業的な意味で応用先が全く見つからなかった。
ニューロファジィ
1980年代後半から1990年代中頃にかけて、従来から電子制御の手法として用いられてきたON/OFF制御,PID制御,現代制御の問題を克服するため、知的制御が盛んに研究され、知識工学的なルールを用いるファジィ制御,データの特徴を学習して分類するニューラルネットワーク,その2つを融合したニューロファジィという手法が日本を中心にブームを迎えた。1987年には仙台市において開業した地下鉄のATOに採用され、バブル期の高級路線に合わせて、白物家電製品でもセンサの個数と種類を大幅に増やし、多様なデータを元に運転を最適化するモデルが多数発売され始めた。
ファジィについては、2018年までに日本が世界の1/5の特許を取得している事から、日本で特に大きなブームとなっていたことが分かっている。現在の白物家電ではこの当時より更に発展した制御技術が用いられているが、既に当たり前のものになり、利用者には意識されなくなっている。ニューロファジィがブームになった1990年代には未だビッグデータという概念は無く(ブロードバンド接続普及後の2010年に初めて提唱された)、データマイニングとしての産業応用は行われなかった。しかし、ニューラルネットワークが一般人も巻き込んで流行した事例としては初めての事例であり、2010年代のディープラーニングブームの前史とも言える社会現象と言える。
ブームの経緯
松下電器が1985年頃から人間が持つような曖昧さを制御に活かすファジィ制御についての研究を開始し、1990年2月1日にファジィ洗濯機第1号である「愛妻号Dayファジィ」の発売に漕ぎ着けた。「愛妻号Dayファジィ」は従来よりも多数のセンサーで収集したデータに基づいて、柔軟に運転を最適化する洗濯機で、同種の洗濯機としては世界初であった。ファジィ制御という当時最先端の技術の導入がバブル期の高級路線にもマッチしたことから、ファジィは裏方の制御技術であるにもかかわらず世間の大きな注目を集めた。その流行の度合いは、1990年の新語・流行語大賞における新語部門の金賞で「ファジィ」が選ばれる程であった。その後に、松下電器はファジィルールの煩雑なチューニングを自動化したニューロファジィ制御を開発し、従来のファジィ理論の限界を突破して学会で評価されるだけでなく、白物家電への応用にも成功して更なるブームを巻き起こした。松下電器の試みの成功を受けて、他社も同様の知的制御を用いる製品を多数発売した。1990年代中頃までは、メーカー各社による一般向けの白物家電の売り文句として知的制御技術の名称が大々的に用いられており、洗濯機の製品名では「愛妻号DAYファジィ」,掃除機の分類としては「ニューロ・ファジィ掃除機」,エアコンの運転モードでは「ニューロ自動」などの名称が付与されていた。
ニューロ,ファジィ,ニューロファジィという手法は、従来の単純なオン・オフ制御や、対象を数式で客観的にモデル化する(この作業は対象が複雑な機構を持つ場合は極めて難しくなる)必要があるPID制御や現代制御等と比較して、人間の主観的な経験則や計測したデータの特徴が利用可能となるファジィ、ニューロ、ニューロファジィは開発工数を抑えながら、環境適応時の柔軟性を高くできるという利点があった。しかし、開発者らの努力にもかかわらず、計算能力や収集可能なデータ量の少なさから、既存の工作機械や家電製品の制御を多少改善する程度で限界を迎えた。理論的にもファジィ集合と深層学習が不可能なニューラルネットワークの組み合わせであり、計算リソースやデータが潤沢に与えられたとしても、認識精度の向上には限界があった。
以降、計算機の能力限界から理論の改善は遅々として進まず、目立った進展は無くなり、1990年代末には知的制御を搭載する白物家電が大多数になったことで、売り文句としてのブームは去った。ブーム後は一般には意識されなくなったが、現在では裏方の技術として、家電製品のみならず、雨水の排水,駐車場,ビルの管理システムなどの社会インフラにも使われ、十分に性能と安定性が実証されている。2003年頃には、人間が設計したオントロジー(ファジィルールとして表現する)を利活用するネットワーク・インテリジェンスという分野に発展した。
統計的機械学習
日本の気象庁では、1977年から気象数値モデルの補正に統計的機械学習の利用を開始している。具体的には、カルマンフィルタ、ロジスティック回帰、線形重回帰、クラスタリング等である。
また地震発生域における地下の状態を示すバロメータである応力降下量を、ベイズ推定やマルコフ連鎖モンテカルロ法によって推定したり、余震などの細かい地震の検知を補正するガウス過程回帰といった手法を気象庁は導入している。
その後機械学習は、化合物探索やCAD設計など応力解析の高度化に使用され始めた。Webサービス上での活用例としては迷惑メールの判定、写真の分類、市場価格の予測などがある。製造ラインの異常検知、不正取引検知などにも利用されている。主成分分析は主に顔認証アルゴリズムの分野で活用されている。隠れマルコフモデルは主に音声認識のアルゴリズムに応用されている。
2000年代
2002年、進化的計算の一種である遺伝的アルゴリズムを利用し、人工ニューラルネットワーク内部の結合重みやトポロジ(各層間の接続関係)の自動最適化を行う手法がテキサス大学によって開発された。
2005年、レイ・カーツワイルは著作で、「圧倒的な人工知能が知識・知能の点で人間を超越し、科学技術の進歩を担い世界を変革する技術的特異点(シンギュラリティ)が2045年にも訪れる」とする説を発表した。
2006年に、ジェフリー・ヒントンらの研究チームによりオートエンコーダによるニューラルネットワークの深層化手法が提案された(現在のディープラーニングの直接的な起源)。
2010年代前半
2010年代に入り、膨大なデータを扱う研究開発のための環境が整備されたことで、AI関連の研究が再び大きく前進し始めた。
2010年に英国エコノミスト誌で「ビッグデータ」という用語が提唱された。同年に質問応答システムのワトソンが、クイズ番組「ジェパディ!」の練習戦で人間に勝利し、大きなニュースとなった。2012年に画像処理コンテストでジェフリー・ヒントン氏のチームが開発した畳み込みニューラルネット「Alexnet」は、従来手法からの大幅な精度改善を果たした上で優勝し、これをきっかけに第三次AIブームが始まった。コンピュータ将棋では将棋電王戦が始まり、次々とプロを破った。
その後、リカレントニューラルネット(RNN)、LSTM、敵対的生成ネットワーク(GAN)、グラフニューラルネット、SOM等の人工NN派生型の研究開発が大幅に増えた。
2013年には国立情報学研究所や富士通研究所の研究チームが開発した「東ロボくん」で東京大学入試の模擬試験に挑んだと発表した。数式の計算や単語の解析にあたる専用プログラムを使い、実際に受験生が臨んだ大学入試センター試験と東大の2次試験の問題を解読した。代々木ゼミナールの判定では「東大の合格は難しいが、私立大学には合格できる水準」だった。
2014年には、日本の人工知能学者である齊藤元章により、特異点に先立ち、オートメーション化とコンピューター技術の進歩により衣食住の生産コストがゼロに限りなく近づくというプレ・シンギュラリティという概念も提唱された。
ジェフ・ホーキンスが、実現に向けて研究を続けているが、著書『考える脳 考えるコンピューター』の中で自己連想記憶理論という独自の理論を展開している。
世界各国において、軍事・民間共に実用化に向け研究開発が進んでいるが、とくに無人戦闘機UCAVや無人自動車ロボットカーの開発が進行しているものの、2010年代にはまだ完全な自動化は試験的なものに留まった(UCAVは利用されているが、一部操作は地上から行っているものが多い)。
ロボット向けとしては、CSAILのロドニー・ブルックスが提唱した包摂アーキテクチャという理論が登場している。これは従来型の「我思う、故に我あり」の知が先行するものではなく、体の神経ネットワークのみを用いて環境から学習する行動型システムを用いている。これに基づいたゲンギスと呼ばれる六本足のロボットは、いわゆる「脳」を持たないにもかかわらず、まるで生きているかのように行動する。
2010年代後半
2015年10月に、DeepMind社は2つの深層学習技術と強化学習、モンテカルロ木探索を組み合わせ「AlphaGo」を開発し、人間のプロ囲碁棋士に勝利することに成功した。それ以降、ディープラーニング(深層学習)と呼ばれる手法が注目されはじめる。
2016年10月、DeepMindが、入力された情報の関連性を導き出し仮説に近いものを導き出す人工知能技術「ディファレンシャブル・ニューラル・コンピューター」を発表し、同年11月、大量のデータが不要の「ワンショット学習」を可能にする深層学習システムを、翌2017年6月、関係推論のような人間並みの認識能力を持つシステムを開発。2017年8月には、記号接地問題(シンボルグラウンディング問題)を解決した。
従来、AIには不向きとされてきた不完全情報ゲームであるポーカーでもAIが人間に勝利するようになった。
Googleの関係者はさらに野心的な取り組みとして、単一のソフトウェアで100万種類以上のタスクを実行可能なAIを開発していると明らかにした。
人工知能の第三次ブーム:AGI(汎用人工知能)と技術的特異点
2006年のディープラーニングの発明と、2010年以降のビッグデータ収集環境の整備、計算資源となるGPUの高性能化により、2012年にディープラーニングが画像処理コンテストで他の手法に圧倒的大差を付けて優勝したことで、技術的特異点という概念は急速に世界中の識者の注目を集め、現実味を持って受け止められるようになった。ディープラーニングの発明と急速な普及を受けて、研究開発の現場においては、デミス・ハサビス率いるDeepMindを筆頭に、Vicarious、OpenAI、IBM Cortical Learning Center、全脳アーキテクチャ、PEZY Computing、OpenCog、GoodAI、NNAISENSE、IBM SyNAPSE等、汎用人工知能(AGI)を開発するプロジェクトが数多く立ち上げられている。これらの研究開発の現場では、脳をリバースエンジニアリングして構築された神経科学と機械学習を組み合わせるアプローチが有望とされている。結果として、Hierarchical Temporal Memory (HTM) 理論、Complementary Learning Systems (CLS) 理論の更新版等、単一のタスクのみを扱うディープラーニングから更に一歩進んだ、複数のタスクを同時に扱う理論が提唱され始めている。
汎用人工知能を実現するためのアプローチとして、大きく分けて三つの方向性がある
- 脳全体、またはその一部を工学的にソフトウェアとして再現する
- 脳をそのまま再現する(全脳シミュレーション)
- 脳を参考にせず、全く新しい知能システムを構築する(特化型AIを組み合わせる等)
3Dゲームのような仮想空間でモデルを動かし現実世界のことを高速に学ばせるといったことも大きな成果を上げている(シミュレーションによる学習)。
また、数は少ないがAGIだけでは知能の再現は不可能と考えて、身体知を再現するために、全人体シミュレーションが必要だとする研究者やより生物に近い振る舞いを見せるAL(人工生命)の作成に挑む研究者、知能と密接な関係にあると思われる意識のデジタル的再現(人工意識)に挑戦する研究者もいる。
リーズナブルなコストで大量の計算リソースが手に入るようになったことで、ビッグデータが出現し、企業が膨大なデータの活用に極めて強い関心を寄せており、全世界的に民間企業主導で莫大な投資を行って人工知能に関する研究開発競争が展開されている。また、2011年のD-Wave Systemsによる量子アニーリング方式の製品化を嚆矢として、量子コンピュータという超々並列処理が可能な次世代のITインフラが急速に実用化され始めた事で、人工知能の高速化にも深く関わる組み合わせ最適化問題をリアルタイムに解決できる環境が整備され始めている。(量子機械学習を参照)この動向を受ける形で、2016年頃から、一般向けのニュース番組でも人工知能の研究開発や新しいサービス展開や量子コンピュータに関する報道が目立つようになった。
2017年にはイーロン・マスクが、急速に進化し続ける人工知能に対して人間が遅れを取らないようにするために、ブレイン・マシン・インターフェースを研究開発するニューラリンクを立ち上げていたことを公表した。
2017年10月にはジェフリー・ヒントンにより要素間の相対的な位置関係まで含めて学習できるCapsNet(カプセルネットワーク)が提唱された。
2017年、マルチヘッド注意機構、位置エンコーディングを採用する「Transformer」と呼ばれる新しい自然言語処理技術がGoogleによって発案された。RNNやLSTMよりも長い文章を一気に処理できる。
2018年3月16日の国際大学GLOCOMの提言によると、課題解決型のAIを活用する事で社会変革に寄与できると分析されている。
2018年8月、OpenAIが好奇心を実装しノーゲームスコア、ノーゴール、無報酬で目的なき探索を行うAIを公表。これまでのAIで最も人間らしいという。
2018年9月、MITリンカーン研究所は従来ブラックボックスであったニューラルネットワークの推論をどのような段階を経て識別したのかが明確に分かるアーキテクチャを開発した。
2018年、ハーバード大学は畳み込みニューラルネットの構造をそのままに、そこに量子ゲートとくりこみを適用した「量子畳み込みニューラルネット(QCNN)」を提案した。
2019年、BERTなどの言語モデルにより、深層学習では困難とされてきた言語処理において大きな進展があり、Wikipediaなどを使用した読解テストで人間を上回るに至った。
2020年代前半
2020年には、OpenAIが基盤モデルとしてTransformerを採用した1750億パラメータを持つ自然言語処理プログラムGPT-3が開発され、アメリカの掲示板サイトRedditで1週間誰にも気付かれず人間と投稿・対話を続けた。プログラムと気付かれた理由は文章の不自然さではなく、その投稿数が異常というものだった。
DeepMindが開発したタンパク質の構造予測を行うAlphaFold2がCASPのグローバル距離テスト (GDT) で90点以上を獲得し、計算生物学における重要な成果であり、数十年前からの生物学の壮大な挑戦に向けた大きな進歩と称された。
OpenAIはTransformer (言語モデル) の性能がパラメータ数N・データセットサイズD・計算予算Cの単純なべき乗になっているとの論文を発表した(スケーリングの法則)。
最先端のAI研究では2年で1000倍サイズのモデルが出現し、1000倍の演算能力を持つコンピュータが必要になって来ている。
2021年4月、NVIDIAの幹部、パレシュ・カーリャは「数年内に100兆パラメータを持つAIモデルが出てくるだろう」と予想した。
2021年5月、マイクロソフトリサーチが32兆パラメーターのAIを試験。
2021年6月、中国政府の支援を受けている北京智源人工知能研究院がパラメーター数1兆7500億のAI「悟道2.0」を発表。
2021年6月、グーグルの研究者達がグラフ畳み込みニューラルネットと強化学習(方策勾配法最適化)を用いて配線とチップの配置を自動設計させたところ、消費電力、性能など全ての主要な指数で人間が設計したもの以上の行列演算専用チップ(TPU4.0)のフロアプランを生成した。そして、設計にかかる時間は人間の1/1000であった。
2021年8月、グーグルの量子人工知能研究部門を率いるハルトムート・ネベンは量子コンピュータの発達の影響がもっとも大きい分野として機械学習分野などAIを挙げた。
2021年8月、DeepMindはさまざまな種類の入力と出力を処理できる汎用の深層学習モデル「Perceiver」を開発した。
2021年10月、GoogleBrainは視覚、聴覚、言語理解力を統合し同時に処理するマルチモーダルAIモデル「Pathways」を開発中であると発表した。
2022年02月、DeepMindは自動でプログラムのコーディングが可能なAI「AlphaCode」を発表した。自然言語で入力した単純なプロンプトからコードを生成できる。その能力は、競技プログラミングコンテスト「Codeforces」で過去に出題されたプログラミング課題を解くタスクで、平均ランキング上位54.3%に入る実力である。
2022年4月、Googleは予告どおりPathwaysを使い、万能言語モデルPaLMを完成させた。とんち話の解説を行えるほか、9-12歳レベルの算数の文章問題を解き、数学計算の論理的な説明が可能であった。デジタルコンピュータは誕生から80年弱にして初めて数学計算の内容を文章で説明できるようになった。その後、自然言語処理としてPathwaysをベースにした数学の問題を解けるモデル「Minerva」を開発した。また、Pathwaysをベースにした自然言語処理とDiffusion Modelを連携し、画像生成モデルPartiを発表した。
2022年5月12日、DeepMindは様々なタスクを一つのモデルで実行することができる統合モデル「Gato」を発表した。チャット、画像の生成と説明、四則演算、物体を掴むロボットの動作、ゲームの攻略等々、600にも及ぶ数々のタスクをこの一つのモデルで実行することができるという。
DeepMindのNando de Freitasは「今は規模が全てです。(AGIに至る道を探す)ゲームは終わった」と主張したが人工知能の歴史の中で繰り返されてきた誇大広告だという批判も存在する。
2022年5月、GoogleのチャットボットLaMDAの試験が行われた。それに参加していたエンジニアであるブレイク・ルモワンはLaMDAに意識があると確信、会話全文を公開したがGoogleから守秘義務違反だとして休職処分を受けた。この主張には様々な批判意見がある。
2022年8月、拡散モデルがベースの画像生成AI・Midjourneyの作品が米国コロラド州で開催された美術品評会で優勝した。ただし細かい部分は人間の手が加えられている。
2022年9月、Googleはテキストから3Dモデルを生成できる「DreamFusion」を開発した。複数の静止画から3Dモデルを生成するNeRFや、Diffusion Modelを使用している。
2022年10月、DeepMindは行列の積を効率的に計算するための未発見のアルゴリズムを導き出す「AlphaTensor」を開発した。。「4×5の行列」と「5×5の行列」の積を求める際に、通常の計算方法で100回の乗算が必要なところを、76回に減らすことができた。またこれを受けて数学者もさらに高速な行列乗算プログラムを公表した。
2023年1月11日、DeepMindは、画像から世界モデルを学習し、それを使用して長期視点から考えて最適な行動を学習する事が出来る「DreamerV3」を発表した。
Googleロボティクス部門は、ロボットの入力と出力行動(カメラ画像、タスク指示、モータ命令など)をトークン化して学習し、実行時にリアルタイム推論を可能にする「Robotics Transformer 1(RT-1)」を開発した。
2022年、研究者の間では大規模ニューラルネットワークに意識が存在するか議論が起こっている。深層学習の第一人者Ilya Sutskeverは「(大規模ニューラルネットワークは)少し意識的かもしれない」と見解を示した。
2022年12月、Googleは、「Flan-PaLM」と呼ばれる巨大言語モデルを開発した。米国医師免許試験(USMLE)形式のタスク「MedQA」で正答率67.6%を記録し、PubMedQAで79.0%を達成した。57ジャンルの選択問題タスク「MMLU」の医療トピックでもFlan-PaLMの成績は他の巨大モデルを凌駕した。臨床知識で80.4%、専門医学で83.8%、大学生物学で88.9%、遺伝医療学で75.0%の正答率である。
質問応答、意思決定支援、需要予測、音声認識、音声合成、機械翻訳、科学技術計算、文章要約など、各分野に特化したシステムやこれらを組み合わせたフレームワークが実用化された。またChatGPTのように自然言語によるチャットを使うことで、専門家以外でも利用可能な対話型の人工知能が実用化された。
従来、AIは肉体労働や単純作業を置き換え、芸術的・創造的仕事が「人間の領域」となると予想されてきたが、実際には2020年代前半から芸術的な分野へ急速に進出している。またAIの実用化後も残るとされた翻訳、意思決定、法律相談など高度なスキルを必要とする分野への応用も進んでいる。一方で2023年時点では肉体労働や単純作業への利用は自動倉庫の制御、囲碁の盤面の映像から棋譜を作成するなど限定的な利用にとどまっている。テスラ社は開発を進める二足歩行ロボットTesla Botに汎用人工知能を搭載し、単純労働を担当させると表明している。
2023年5月11日、日本政府は首相官邸で、「AI戦略会議」(座長 松尾豊・東京大学大学院教授)の初会合を開いた。
哲学とAI
哲学・宗教・芸術
Googleは2019年3月、人工知能プロジェクトを倫理面で指導するために哲学者・政策立案者・経済学者・テクノロジスト等で構成される、AI倫理委員会を設置すると発表した。しかし倫理委員会には反科学・反マイノリティ・地球温暖化懐疑論等を支持する人物も含まれており、Google社員らは解任を要請した。4月4日、Googleは倫理委員会が「期待どおりに機能できないことが判明した」という理由で、委員会の解散を発表した。
東洋哲学をAIに吸収させるという三宅陽一郎のテーマに応じて、井口尊仁は「鳥居(TORII)」という自分のプロジェクトを挙げ、「われわれはアニミズムで、あらゆるものに霊的存在を見いだす文化があります」と三宅および立石従寛に語る。アニミズム的人工知能論は現代アートや、「禅の悟りをどうやってAIにやらせるか」を論じた三宅の『人工知能のための哲学塾 東洋哲学篇』にも通じている。
元Googleエンジニアのアンソニー゠レバンドウスキーは2017年、AIを神とする宗教団体「Way of the Future(未来の道)」を創立している。団体の使命は「人工知能(AI)に基づいたGodheadの実現を促進し開発すること、そしてGodheadの理解と崇拝を通して社会をより良くすることに貢献すること」と抽象的に表現されており、多くの海外メディアはSF映画や歴史などと関連付けて報道した。UberとGoogleのWaymoは、レバンドウスキーが自動運転に関する機密情報を盗用したことを訴え裁判を行っている一方、レバンドウスキーはUberの元CEO(トラビス゠カラニック)に対し「ボットひとつずつ、我々は世界を征服するんだ」と発言するなど、野心的な振る舞いを示している。
発明家レイ・カーツワイルが言うには、哲学者ジョン・サールが提起した強いAIと弱いAIの論争は、AIの哲学議論でホットな話題である。哲学者ジョン・サールおよびダニエル・デネットによると、サールの「中国語の部屋」やネド・ブロックらの「中国脳」といった機能主義に批判的な思考実験は、真の意識が形式論理システムによって実現できないと主張している。
批判
生命情報科学者・神経科学者の合原一幸編著『人工知能はこうして創られる』によれば、AIの急激な発展に伴って「技術的特異点、シンギュラリティ」の思想や哲学が一部で論じられているが、特異点と言っても「数学」的な話ではない。前掲書は「そもそもシンギュラリティと関係した議論における『人間の脳を超える』という言明自体がうまく定義できていない」と記している。確かに、脳を「デジタル情報処理システム」として捉える観点から見れば、シンギュラリティは起こり得るかもしれない。しかし実際の脳はそのような単純なシステムではなく、デジタルとアナログが融合した「ハイブリッド系」であることが、脳神経科学の観察結果で示されている。前掲書によると、神経膜では様々な「ノイズ」が存在し、このノイズ付きのアナログ量によって脳内のニューロンの「カオス」が生み出されているため、このような状況をデジタルで記述することは「極めて困難」と考えられている。
文学・フィクション・SF(空想科学)
脚注
注釈
参考文献
学術書・辞事典
- 合原, 一幸、牧野, 貴樹、金山, 博、河野, 崇、木脇, 太一、青野, 真士 著、合原一幸(編著) 編『人工知能はこうして創られる』ウェッジ、2017年。ISBN 978-4863101852。
- 北原, 保雄『明鏡国語辞典』(第二版)大修館書店、2010年。ISBN 978-4469021172。
- 佐藤, 理史「人工知能」『日本大百科全書(ニッポニカ)』小学館・朝日新聞社・VOYAGE GROUP、2018年。https://kotobank.jp/word/%E4%BA%BA%E5%B7%A5%E7%9F%A5%E8%83%BD-4702#E6.97.A5.E6.9C.AC.E5.A4.A7.E7.99.BE.E7.A7.91.E5.85.A8.E6.9B.B8.28.E3.83.8B.E3.83.83.E3.83.9D.E3.83.8B.E3.82.AB.29。2018年8月16日閲覧。"人工知能は、「計算(computation)」という概念と「コンピュータ(computer)」という道具を用いて「知能」を研究する計算機科学(computer science)の一分野である。誤解を恐れず平易にいいかえるならば、「これまで人間にしかできなかった知的な行為(認識、推論、言語運用、創造など)を、どのような手順(アルゴリズム)とどのようなデータ(事前情報や知識)を準備すれば、それを機械的に実行できるか」を研究する分野である。"。
- 人工知能学会「1997年度人工知能学会名簿」『人工知能学会誌』第12巻第5号、人工知能学会、1997年、653-808 (1-156)、doi:10.11517/jjsai.12.5_797。
- 仙石, 正和「基礎研究を続ける大切さ(創立100周年記念特集「基礎・境界」が支えた100 年, これからの100年 ―― 未来 100 年を担うあなたへ贈る言葉)」『電子情報通信学会誌(The journal of the Institute of Electronics, Information and Communication Engineers)』第100巻第6号、電子情報通信学会、2017年、431-439頁。
- 全, 卓樹『エキゾティックな量子:不可思議だけど意外に近しい量子のお話』東京大学出版会、2014年。ISBN 978-4130636070。
- 野家, 啓一「科学時代の哲学:哲学は「二流の科学」か?」『哲学の探求』第29巻、哲学若手研究者フォーラム、2002年、31-42頁。
- フランセーン, トルケル 著、田中一之 訳『ゲーデルの定理:利用と誤用の不完全ガイド』みすず書房、2011年。ISBN 978-4622075691。
- 桃内, 佳雄「人工知能」『日本大百科全書(ニッポニカ)』小学館・朝日新聞社・VOYAGE GROUP、2017年。https://kotobank.jp/word/%E4%BA%BA%E5%B7%A5%E7%9F%A5%E8%83%BD-4702#E6.97.A5.E6.9C.AC.E5.A4.A7.E7.99.BE.E7.A7.91.E5.85.A8.E6.9B.B8.28.E3.83.8B.E3.83.83.E3.83.9D.E3.83.8B.E3.82.AB.29。2017年12月31日閲覧。"計算機(コンピュータ)による知的な情報処理システムの設計や実現に関する研究分野"。
- ASCII.jp「人工知能」『ASCII.jpデジタル用語辞典』ASCII.jp・朝日新聞社・VOYAGE GROUP、2018年。https://kotobank.jp/word/%E4%BA%BA%E5%B7%A5%E7%9F%A5%E8%83%BD-4702#SCII.jp.E3.83.87.E3.82.B8.E3.82.BF.E3.83.AB.E7.94.A8.E8.AA.9E.E8.BE.9E.E5.85.B8。2018年8月16日閲覧。"言語の理解や推論、問題解決などの知的行動を人間に代わってコンピューターに行わせる技術。"。
- Kaplan, Andreas M. (2022). Artificial Intelligence, Business and Civilization: Our Fate Made in Machines (2nd ed.). Routledge Publishers. ISBN 9781032155319
- Geraci, Robert M. (2012). Apocalyptic AI: Visions of Heaven in Robotics, Artificial Intelligence, and Virtual Reality (reprinted ed.). Oxford University Press. ISBN 9780199964000
教育研究機関・研究開発機関
- 東京大学 工学部 機械情報工学科『東京大学 工学部 機械情報工学科』東京大学 工学部、2021年。https://web.archive.org/web/20210621164347/http://www.t.u-tokyo.ac.jp/eng/innovator/pre/dept/mechano-informatics.html。2021年2月25日閲覧。
- 東京大学 工学部 電子情報工学科『東京大学 工学部 電子情報工学科』東京大学 工学部、2021年。https://web.archive.org/web/20210621164413/http://www.t.u-tokyo.ac.jp/eng/innovator/pre/dept/communication-engineering.html。2021年2月25日閲覧。
- 東京大学 理学部 情報科学科、東京大学大学院 情報理工学系研究科 コンピュータ科学専攻『人工知能と機械学習』東京大学・東京大学大学院、2021年。https://www.is.s.u-tokyo.ac.jp/shingaku/highschool/ai.html。2021年2月25日閲覧。
報道
- 高橋ミレイ (2019年). "人工知能が禅の「悟り」を開く日は訪れるのか?:三宅陽一郎×井口尊仁×立石従寛 鼎談(後編)". WIRED. WIRED. 2019年2月6日閲覧。
- 塚本紺 (2017年). "神はAI? 元Googleエンジニアが宗教団体を創立". livedoorニュース. ギズモード・ジャパン. 2019年2月6日閲覧。
- Will Knight (2019年). "グーグルが新設した「AI倫理委員会」に社員が猛反発した理由". MITテクノロジーレビュー. 株式会社角川アスキー総合研究所. 2019年4月6日閲覧。
- STRICKLAND, ELIZA (October 2021). “The TURBULENT PAST and UNCERTAIN FUTURE of AI”. IEEE Spectrum 58 (10).
英語
書籍
- Luger, George; Stubblefield, William (2004). Artificial Intelligence: Structures and Strategies for Complex Problem Solving (5th ed.). Benjamin/Cummings. ISBN 978-0-8053-4780-7. オリジナルの26 July 2020時点におけるアーカイブ。. https://web.archive.org/web/20200726220613/https://archive.org/details/artificialintell0000luge 2019年12月17日閲覧。
- Nilsson, Nils (1998). Artificial Intelligence: A New Synthesis. Morgan Kaufmann. ISBN 978-1-55860-467-4. オリジナルの26 July 2020時点におけるアーカイブ。. https://web.archive.org/web/20200726131654/https://archive.org/details/artificialintell0000nils 2019年11月18日閲覧。
- Russell, Stuart J.; Norvig, Peter (2003), Artificial Intelligence: A Modern Approach (2nd ed.), Upper Saddle River, New Jersey: Prentice Hall, ISBN 0-13-790395-2, http://aima.cs.berkeley.edu/ .
- Poole, David; Mackworth, Alan; Goebel, Randy (1998). Computational Intelligence: A Logical Approach. New York: Oxford University Press. ISBN 978-0-19-510270-3. オリジナルの26 July 2020時点におけるアーカイブ。. https://web.archive.org/web/20200726131436/https://archive.org/details/computationalint00pool 2020年8月22日閲覧。
Later editions.
- Russell, Stuart J.; Norvig, Peter (2009). Artificial Intelligence: A Modern Approach (3rd ed.). Upper Saddle River, New Jersey: Prentice Hall. ISBN 978-0-13-604259-4 .
- Poole, David; Mackworth, Alan (2017). Artificial Intelligence: Foundations of Computational Agents (2nd ed.). Cambridge University Press. ISBN 978-1-107-19539-4. http://artint.info/index.html
The two most widely used textbooks in 2021.Open Syllabus: Explorer
- Russell, Stuart J.; Norvig, Peter (2021). Artificial Intelligence: A Modern Approach (4th ed.). Hoboken: Pearson. ISBN 9780134610993. LCCN 20-190474
- Knight, Kevin; Rich, Elaine (1 January 2010) (英語). Artificial Intelligence (3rd ed.). Mc Graw Hill India. ISBN 9780070087705
AIの歴史
- Crevier, Daniel (1993), AI: The Tumultuous Search for Artificial Intelligence, New York, NY: BasicBooks, ISBN 0-465-02997-3。.
- McCorduck, Pamela (2004), Machines Who Think (2 ed.), Natick, MA: A. K. Peters, Ltd., ISBN 1-56881-205-1, http://www.pamelamc.com/html/machines_who_think.html .
- Newquist, HP (1994). The Brain Makers: Genius, Ego, And Greed In The Quest For Machines That Think. New York: Macmillan/SAMS. ISBN 978-0-672-30412-5
- Nilsson, Nils (2009). The Quest for Artificial Intelligence: A History of Ideas and Achievements. New York: Cambridge University Press. ISBN 978-0-521-12293-1
その他
- McCarthy, John (1999), What is AI?, http://jmc.stanford.edu/artificial-intelligence/what-is-ai/index.html
- Werbos, P. J. (1988), “Generalization of backpropagation with application to a recurrent gas market model”, Neural Networks 1 (4): 339–356, doi:10.1016/0893-6080(88)90007-X, https://zenodo.org/record/1258627
- Gers, Felix A.; Schraudolph, Nicol N.; Schraudolph, Jürgen (2002). “Learning Precise Timing with LSTM Recurrent Networks”. Journal of Machine Learning Research 3: 115–143. オリジナルの2022-10-09時点におけるアーカイブ。. https://ghostarchive.org/archive/20221009/http://www.jmlr.org/papers/volume3/gers02a/gers02a.pdf 2017年6月13日閲覧。.
- Deng, L.; Yu, D. (2014). “Deep Learning: Methods and Applications”. Foundations and Trends in Signal Processing 7 (3–4): 1–199. doi:10.1561/2000000039. オリジナルの14 March 2016時点におけるアーカイブ。. https://web.archive.org/web/20160314152112/http://research.microsoft.com/pubs/209355/DeepLearning-NowPublishing-Vol7-SIG-039.pdf 2014年10月18日閲覧。.
- Schulz, Hannes; Behnke, Sven (1 November 2012). “Deep Learning” (英語). KI – Künstliche Intelligenz 26 (4): 357–363. doi:10.1007/s13218-012-0198-z. ISSN 1610-1987. https://www.researchgate.net/publication/230690795.
- Fukushima, K. (2007). “Neocognitron”. Scholarpedia 2 (1): 1717. Bibcode: 2007SchpJ...2.1717F. doi:10.4249/scholarpedia.1717. was introduced by Kunihiko Fukushima in 1980.
- Habibi, Aghdam, Hamed (30 May 2017). Guide to convolutional neural networks : a practical application to traffic-sign detection and classification. Heravi, Elnaz Jahani. Cham, Switzerland. ISBN 9783319575490. OCLC 987790957
- Ciresan, D.; Meier, U.; Schmidhuber, J. (2012). “Multi-column deep neural networks for image classification”. 2012 IEEE Conference on Computer Vision and Pattern Recognition. pp. 3642–3649. arXiv:1202.2745. doi:10.1109/cvpr.2012.6248110. ISBN 978-1-4673-1228-8
- "From not working to neural networking". The Economist. 2016年. 2016年12月31日時点のオリジナルよりアーカイブ。2018年4月26日閲覧。
- Thompson, Derek (23 January 2014). “What Jobs Will the Robots Take?”. The Atlantic. オリジナルの24 April 2018時点におけるアーカイブ。. https://web.archive.org/web/20180424202435/https://www.theatlantic.com/business/archive/2014/01/what-jobs-will-the-robots-take/283239/ 2018年4月24日閲覧。.
- Scassellati, Brian (2002). “Theory of mind for a humanoid robot”. Autonomous Robots 12 (1): 13–24. doi:10.1023/A:1013298507114.
- Sample, Ian (2017年3月14日). "Google's DeepMind makes AI program that can learn like a human". The Guardian. 2018年4月26日時点のオリジナルよりアーカイブ。2018年4月26日閲覧。
- Heath, Nick (2020年12月11日). "What is AI? Everything you need to know about Artificial Intelligence". ZDNet (英語). 2021年3月1日閲覧。
- Bowling, Michael; Burch, Neil; Johanson, Michael; Tammelin, Oskari (9 January 2015). “Heads-up limit hold'em poker is solved” (英語). Science 347 (6218): 145–149. Bibcode: 2015Sci...347..145B. doi:10.1126/science.1259433. ISSN 0036-8075. PMID 25574016. https://www.science.org/doi/10.1126/science.1259433.
- Solly, Meilan (2019年7月15日). “This Poker-Playing A.I. Knows When to Hold 'Em and When to Fold 'Em”. Smithsonian. 2019年7月15日閲覧。
- "Artificial intelligence: Google's AlphaGo beats Go master Lee Se-dol". BBC News. 2016年3月12日. 2016年8月26日時点のオリジナルよりアーカイブ。2016年10月1日閲覧。
- Rowinski, Dan (2013年1月15日). "Virtual Personal Assistants & The Future Of Your Smartphone [Infographic]". ReadWrite. 2015年12月22日時点のオリジナルよりアーカイブ。2013年1月15日閲覧。
- Manyika, James (2022). “Getting AI Right: Introductory Notes on AI & Society”. Daedalus 151 (2): 5–27. doi:10.1162/daed_e_01897. https://www.amacad.org/publication/getting-ai-right-introductory-notes-ai-society 2022年5月5日閲覧。.
- Markoff, John (2011年2月16日). “Computer Wins on 'Jeopardy!': Trivial, It's Not”. The New York Times. オリジナルの2014年10月22日時点におけるアーカイブ。. https://web.archive.org/web/20141022023202/http://www.nytimes.com/2011/02/17/science/17jeopardy-watson.html 2014年10月25日閲覧。
- Anadiotis, George (2020年10月1日). "The state of AI in 2020: Democratization, industrialization, and the way to artificial general intelligence". ZDNet (英語). 2021年3月1日閲覧。
- Goertzel, Ben; Lian, Ruiting; Arel, Itamar; de Garis, Hugo; Chen, Shuo (December 2010). “A world survey of artificial brain projects, Part II: Biologically inspired cognitive architectures”. Neurocomputing 74 (1–3): 30–49. doi:10.1016/j.neucom.2010.08.012.
- Robinson, A. J.; Fallside, F. (1987), “The utility driven dynamic error propagation network.”, Technical Report CUED/F-INFENG/TR.1 (Cambridge University Engineering Department)
- Hochreiter, Sepp (1991). Untersuchungen zu dynamischen neuronalen Netzen (PDF) (diploma thesis). Munich: Institut f. Informatik, Technische Univ. 2015年3月6日時点のオリジナル (PDF)よりアーカイブ。2016年4月16日閲覧。
- Williams, R. J.; Zipser, D. (1994), “Gradient-based learning algorithms for recurrent networks and their computational complexity”, Back-propagation: Theory, Architectures and Applications (Hillsdale, NJ: Erlbaum)
- Hochreiter, Sepp; Schmidhuber, Jürgen (1997), “Long Short-Term Memory”, Neural Computation 9 (8): 1735–1780, doi:10.1162/neco.1997.9.8.1735, PMID 9377276
- Goodfellow, Ian; Bengio, Yoshua; Courville, Aaron (2016), Deep Learning, MIT Press., オリジナルの16 April 2016時点におけるアーカイブ。, https://web.archive.org/web/20160416111010/http://www.deeplearningbook.org/ 2017年11月12日閲覧。
- Hinton, G.; Deng, L.; Yu, D.; Dahl, G.; Mohamed, A.; Jaitly, N.; Senior, A.; Vanhoucke, V. et al. (2012). “Deep Neural Networks for Acoustic Modeling in Speech Recognition – The shared views of four research groups”. IEEE Signal Processing Magazine 29 (6): 82–97. Bibcode: 2012ISPM...29...82H. doi:10.1109/msp.2012.2205597.
- Schmidhuber, J. (2015). “Deep Learning in Neural Networks: An Overview”. Neural Networks 61: 85–117. arXiv:1404.7828. doi:10.1016/j.neunet.2014.09.003. PMID 25462637.
- Linnainmaa, Seppo (1970). The representation of the cumulative rounding error of an algorithm as a Taylor expansion of the local rounding errors (Thesis) (Finnish). Univ. Helsinki, 6–7.|
- Griewank, Andreas (2012). “Who Invented the Reverse Mode of Differentiation? Optimization Stories”. Documenta Matematica, Extra Volume ISMP: 389–400.
- Werbos, Paul (1974). Beyond Regression: New Tools for Prediction and Analysis in the Behavioral Sciences (Ph.D. thesis). Harvard University.
- Werbos, Paul (1982). “Beyond Regression: New Tools for Prediction and Analysis in the Behavioral Sciences”. System Modeling and Optimization. Applications of advances in nonlinear sensitivity analysis (Berlin, Heidelberg: Springer). オリジナルの14 April 2016時点におけるアーカイブ。. https://web.archive.org/web/20160414055503/http://werbos.com/Neural/SensitivityIFIPSeptember1981.pdf 2016年4月16日閲覧。.
- "What is 'fuzzy logic'? Are there computers that are inherently fuzzy and do not apply the usual binary logic?". Scientific American (英語). 1999年10月21日. 2018年5月5日閲覧。
- Merkle, Daniel; Middendorf, Martin (2013). “Swarm Intelligence”. In Burke, Edmund K.; Kendall, Graham (英語). Search Methodologies: Introductory Tutorials in Optimization and Decision Support Techniques. Springer Science & Business Media. ISBN 978-1-4614-6940-7
- van der Walt, Christiaan; Bernard, Etienne (2006年). "Data characteristics that determine classifier performance" (PDF). 2009年3月25日時点のオリジナル (PDF)よりアーカイブ。2009年8月5日閲覧。
- Hutter, Marcus (2005). Universal Artificial Intelligence. Berlin: Springer. ISBN 978-3-540-22139-5
- Howe, J. (1994年11月). “Artificial Intelligence at Edinburgh University: a Perspective”. 2007年5月15日時点のオリジナルよりアーカイブ。2007年8月30日閲覧。
- Galvan, Jill (1 January 1997). “Entering the Posthuman Collective in Philip K. Dick's "Do Androids Dream of Electric Sheep?"”. Science Fiction Studies 24 (3): 413–429. JSTOR 4240644.
- McCauley, Lee (2007). “AI armageddon and the three laws of robotics”. Ethics and Information Technology 9 (2): 153–164. doi:10.1007/s10676-007-9138-2.
- Buttazzo, G. (July 2001). “Artificial consciousness: Utopia or real possibility?”. Computer 34 (7): 24–30. doi:10.1109/2.933500.
- Anderson, Susan Leigh (2008). “Asimov's "three laws of robotics" and machine metaethics.”. AI & Society 22 (4): 477–493. doi:10.1007/s00146-007-0094-5.
- Yudkowsky, E (2008), “Artificial Intelligence as a Positive and Negative Factor in Global Risk”, Global Catastrophic Risks (Oxford University Press, 2008), Bibcode: 2008gcr..book..303Y, http://intelligence.org/files/AIPosNegFactor.pdf
- McGaughey, E (2018), Will Robots Automate Your Job Away? Full Employment, Basic Income, and Economic Democracy, p. SSRN part 2(3), SSRN 3044448, オリジナルの24 May 2018時点におけるアーカイブ。, https://web.archive.org/web/20180524201340/https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3044448 2018年1月12日閲覧。
- IGM Chicago (2017年6月30日). “Robots and Artificial Intelligence”. www.igmchicago.org. 2019年5月1日時点のオリジナルよりアーカイブ。2019年7月3日閲覧。
- Lohr, Steve (2017年). “Robots Will Take Jobs, but Not as Fast as Some Fear, New Report Says”. The New York Times. オリジナルの2018年1月14日時点におけるアーカイブ。. https://web.archive.org/web/20180114073704/https://www.nytimes.com/2017/01/12/technology/robots-will-take-jobs-but-not-as-fast-as-some-fear-new-report-says.html 2018年1月13日閲覧。
- Frey, Carl Benedikt; Osborne, Michael A (1 January 2017). “The future of employment: How susceptible are jobs to computerisation?”. Technological Forecasting and Social Change 114: 254–280. doi:10.1016/j.techfore.2016.08.019. ISSN 0040-1625.
- Arntz, Melanie; Gregory, Terry; Zierahn, Ulrich (2016), “The risk of automation for jobs in OECD countries: A comparative analysis”, OECD Social, Employment, and Migration Working Papers 189
- Morgenstern, Michael (2015年5月9日). “Automation and anxiety”. The Economist. オリジナルの2018年1月12日時点におけるアーカイブ。. https://web.archive.org/web/20180112214621/https://www.economist.com/news/special-report/21700758-will-smarter-machines-cause-mass-unemployment-automation-and-anxiety 2018年1月13日閲覧。
- Mahdawi, Arwa (2017年6月26日). “What jobs will still be around in 20 years? Read this to prepare your future”. The Guardian. オリジナルの2018年1月14日時点におけるアーカイブ。. https://web.archive.org/web/20180114021804/https://www.theguardian.com/us-news/2017/jun/26/jobs-future-automation-robots-skills-creative-health 2018年1月13日閲覧。
- Rubin, Charles (Spring 2003). “Artificial Intelligence and Human Nature”. The New Atlantis 1: 88–100. オリジナルの11 June 2012時点におけるアーカイブ。. https://web.archive.org/web/20120611115223/http://www.thenewatlantis.com/publications/artificial-intelligence-and-human-nature.
- Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press
- Brooks, Rodney (2014年11月10日). “artificial intelligence is a tool, not a threat”. 2014年11月12日時点のオリジナルよりアーカイブ。2014年11月10日閲覧。
- Sainato, Michael (2015年8月19日). “Stephen Hawking, Elon Musk, and Bill Gates Warn About Artificial Intelligence”. Observer. 2015年10月30日時点のオリジナルよりアーカイブ。2015年10月30日閲覧。
- Harari, Yuval Noah (October 2018). “Why Technology Favors Tyranny”. The Atlantic. https://www.theatlantic.com/magazine/archive/2018/10/yuval-noah-harari-technology-tyranny/568330.
- Robitzski, Dan (2018年9月5日). “Five experts share what scares them the most about AI”. 2019年12月8日時点のオリジナルよりアーカイブ。2019年12月8日閲覧。
- Goffrey, Andrew (2008). “Algorithm”. In Fuller, Matthew. Software studies: a lexicon. Cambridge, Mass.: MIT Press. pp. 15–20. ISBN 978-1-4356-4787-9. https://archive.org/details/softwarestudiesl00full_007
- Lipartito, Kenneth (6 January 2011), The Narrative and the Algorithm: Genres of Credit Reporting from the Nineteenth Century to Today (Unpublished manuscript), doi:10.2139/ssrn.1736283, オリジナルの2022-10-09時点におけるアーカイブ。, https://ghostarchive.org/archive/20221009/https://mpra.ub.uni-muenchen.de/28142/1/MPRA_paper_28142.pdf
- Goodman, Bryce; Flaxman, Seth (2017). “EU regulations on algorithmic decision-making and a "right to explanation"”. AI Magazine 38 (3): 50. arXiv:1606.08813. doi:10.1609/aimag.v38i3.2741.
- CNA (2019年1月12日). “Commentary: Bad news. Artificial intelligence is biased” (英語). CNA. 2019年1月12日時点のオリジナルよりアーカイブ。2020年6月19日閲覧。
- “How We Analyzed the COMPAS Recidivism Algorithm” (英語). ProPublica (2016年5月23日). 2019年4月29日時点のオリジナルよりアーカイブ。2020年6月19日閲覧。
- Müller, Vincent C.; Bostrom, Nick (2014). “Future Progress in Artificial Intelligence: A Poll Among Experts”. AI Matters 1 (1): 9–11. doi:10.1145/2639475.2639478. オリジナルの15 January 2016時点におけるアーカイブ。. https://web.archive.org/web/20160115114604/http://www.sophia.de/pdf/2014_PT-AI_polls.pdf.
- Cellan-Jones, Rory (2014年12月2日). “Stephen Hawking warns artificial intelligence could end mankind”. BBC News. オリジナルの2015年10月30日時点におけるアーカイブ。. https://web.archive.org/web/20151030054329/http://www.bbc.com/news/technology-30290540 2015年10月30日閲覧。
- Rawlinson, Kevin (2015年1月29日). "Microsoft's Bill Gates insists AI is a threat". BBC News. 2015年1月29日時点のオリジナルよりアーカイブ。2015年1月30日閲覧。
- Holley, Peter (2015年1月28日). "Bill Gates on dangers of artificial intelligence: 'I don't understand why some people are not concerned'". The Washington Post. ISSN 0190-8286. 2015年10月30日時点のオリジナルよりアーカイブ。2015年10月30日閲覧。
- Gibbs, Samuel (2014年10月27日). "Elon Musk: artificial intelligence is our biggest existential threat". The Guardian. 2015年10月30日時点のオリジナルよりアーカイブ。2015年10月30日閲覧。
- Churm, Philip Andrew (2019年5月14日). "Yuval Noah Harari talks politics, technology and migration". euronews (英語). 2019年5月14日時点のオリジナルよりアーカイブ。2020年11月15日閲覧。
- Bostrom, Nick (2015年). "What happens when our computers get smarter than we are?". TED (conference). 2020年7月25日時点のオリジナルよりアーカイブ。2020年1月30日閲覧。
- Post, Washington (2015年). “Tech titans like Elon Musk are spending $1 billion to save you from terminators”. Chicago Tribune. 2016年6月7日時点のオリジナルよりアーカイブ。2016年6月7日閲覧。
- “The mysterious artificial intelligence company Elon Musk invested in is developing game-changing smart computers”. Tech Insider (2015年10月9日). 2015年10月30日時点のオリジナルよりアーカイブ。2015年10月30日閲覧。
- FastCompany (2015年1月15日). "Elon Musk Is Donating $10M Of His Own Money To Artificial Intelligence Research". Fast Company. 2015年10月30日時点のオリジナルよりアーカイブ。2015年10月30日閲覧。
- Thibodeau, Patrick (2019年3月25日). “Oracle CEO Mark Hurd sees no reason to fear ERP AI” (英語). SearchERP. 2019年5月6日時点のオリジナルよりアーカイブ。2019年5月6日閲覧。
- Bhardwaj, Prachi (2018年5月24日). “Mark Zuckerberg responds to Elon Musk's paranoia about AI: 'AI is going to... help keep our communities safe.'”. Business Insider. 2019年5月6日時点のオリジナルよりアーカイブ。2019年5月6日閲覧。
- Geist, Edward Moore (2015年8月9日). “Is artificial intelligence really an existential threat to humanity?”. Bulletin of the Atomic Scientists. 2015年10月30日時点のオリジナルよりアーカイブ。2015年10月30日閲覧。
- Madrigal, Alexis C. (27 February 2015). The case against killer robots, from a guy actually working on artificial intelligence. オリジナルの4 February 2016時点におけるアーカイブ。. https://web.archive.org/web/20160204175716/http://fusion.net/story/54583/the-case-against-killer-robots-from-a-guy-actually-building-ai/ 2016年1月31日閲覧。.
- Lee, Timothy B. (2014年8月22日). “Will artificial intelligence destroy humanity? Here are 5 reasons not to worry.”. Vox. 2015年10月30日時点のオリジナルよりアーカイブ。2015年10月30日閲覧。
- Law Library of Congress (U.S.). Global Legal Research Directorate, issuing body. (2019). Regulation of artificial intelligence in selected jurisdictions. LCCN 2019-668143. OCLC 1110727808
- Berryhill, Jamie; Heang, Kévin Kok; Clogher, Rob; McBride, Keegan (2019). Hello, World: Artificial Intelligence and its Use in the Public Sector. Paris: OECD Observatory of Public Sector Innovation. オリジナルの20 December 2019時点におけるアーカイブ。. https://web.archive.org/web/20191220021331/https://oecd-opsi.org/wp-content/uploads/2019/11/AI-Report-Online.pdf 2020年8月9日閲覧。
- Barfield, Woodrow; Pagallo, Ugo (2018). Research handbook on the law of artificial intelligence. Cheltenham, UK. ISBN 978-1-78643-904-8. OCLC 1039480085
- Iphofen, Ron; Kritikos, Mihalis (3 January 2019). “Regulating artificial intelligence and robotics: ethics by design in a digital society”. Contemporary Social Science 16 (2): 170–184. doi:10.1080/21582041.2018.1563803. ISSN 2158-2041.
- Wirtz, Bernd W.; Weyerer, Jan C.; Geyer, Carolin (24 July 2018). “Artificial Intelligence and the Public Sector – Applications and Challenges”. International Journal of Public Administration 42 (7): 596–615. doi:10.1080/01900692.2018.1498103. ISSN 0190-0692. オリジナルの18 August 2020時点におけるアーカイブ。. https://web.archive.org/web/20200818131415/https://zenodo.org/record/3569435 2020年8月22日閲覧。.
- Buiten, Miriam C (2019). “Towards Intelligent Regulation of Artificial Intelligence”. European Journal of Risk Regulation 10 (1): 41–59. doi:10.1017/err.2019.8. ISSN 1867-299X.
- Wallach, Wendell (2010). Moral Machines. Oxford University Press
- Brown, Eileen (2019年11月5日). “Half of Americans do not believe deepfake news could target them online” (英語). ZDNet. 2019年11月6日時点のオリジナルよりアーカイブ。2019年12月3日閲覧。
- Frangoul, Anmar (2019年6月14日). “A Californian business is using A.I. to change the way we think about energy storage” (英語). CNBC. 2020年7月25日時点のオリジナルよりアーカイブ。2019年11月5日閲覧。
- "The Economist Explains: Why firms are piling into artificial intelligence". The Economist. 2016年3月31日. 2016年5月8日時点のオリジナルよりアーカイブ。2016年5月19日閲覧。
- Lohr, Steve (2016年2月28日). “The Promise of Artificial Intelligence Unfolds in Small Steps”. The New York Times. オリジナルの2016年2月29日時点におけるアーカイブ。. https://web.archive.org/web/20160229171843/http://www.nytimes.com/2016/02/29/technology/the-promise-of-artificial-intelligence-unfolds-in-small-steps.html 2016年2月29日閲覧。
- Smith, Mark (2016年7月22日). "So you think you chose to read this article?". BBC News. 2016年7月25日時点のオリジナルよりアーカイブ。2016年7月25日閲覧。
- Aletras, N.; Tsarapatsanis, D.; Preotiuc-Pietro, D.; Lampos, V. (2016). “Predicting judicial decisions of the European Court of Human Rights: a Natural Language Processing perspective”. PeerJ Computer Science 2: e93. doi:10.7717/peerj-cs.93.
- Cadena, Cesar; Carlone, Luca; Carrillo, Henry; Latif, Yasir; Scaramuzza, Davide; Neira, Jose; Reid, Ian; Leonard, John J. (December 2016). “Past, Present, and Future of Simultaneous Localization and Mapping: Toward the Robust-Perception Age”. IEEE Transactions on Robotics 32 (6): 1309–1332. arXiv:1606.05830. doi:10.1109/TRO.2016.2624754.
- Cambria, Erik; White, Bebo (May 2014). “Jumping NLP Curves: A Review of Natural Language Processing Research [Review Article]”. IEEE Computational Intelligence Magazine 9 (2): 48–57. doi:10.1109/MCI.2014.2307227.
- Vincent, James (2019年11月7日). "OpenAI has published the text-generating AI it said was too dangerous to share". The Verge (英語). 2020年6月11日時点のオリジナルよりアーカイブ。2020年6月11日閲覧。
- Jordan, M. I.; Mitchell, T. M. (16 July 2015). “Machine learning: Trends, perspectives, and prospects”. Science 349 (6245): 255–260. Bibcode: 2015Sci...349..255J. doi:10.1126/science.aaa8415. PMID 26185243.
- Maschafilm (2010年). “Content: Plug & Pray Film – Artificial Intelligence – Robots -”. plugandpray-film.de. 2016年2月12日時点のオリジナルよりアーカイブ。2016年2月12日閲覧。
- Evans, Woody (2015). “Posthuman Rights: Dimensions of Transhuman Worlds”. Teknokultura 12 (2). doi:10.5209/rev_TK.2015.v12.n2.49072.
- Waddell, Kaveh (2018). “Chatbots Have Entered the Uncanny Valley”. The Atlantic. オリジナルの24 April 2018時点におけるアーカイブ。. https://web.archive.org/web/20180424202350/https://www.theatlantic.com/technology/archive/2017/04/uncanny-valley-digital-assistants/523806/ 2018年4月24日閲覧。.
- Poria, Soujanya; Cambria, Erik; Bajpai, Rajiv; Hussain, Amir (September 2017). “A review of affective computing: From unimodal analysis to multimodal fusion”. Information Fusion 37: 98–125. doi:10.1016/j.inffus.2017.02.003. hdl:1893/25490. http://researchrepository.napier.ac.uk/Output/1792429.
- "Robots could demand legal rights". BBC News. 2006年12月21日. 2019年10月15日時点のオリジナルよりアーカイブ。2011年2月3日閲覧。
- Horst, Steven (2005年). “The Computational Theory of Mind”. The Stanford Encyclopedia of Philosophy. 2023年3月17日閲覧。
- Omohundro, Steve (2008). The Nature of Self-Improving Artificial Intelligence. presented and distributed at the 2007 Singularity Summit, San Francisco, CA.
- Ford, Martin; Colvin, Geoff (2015年9月6日). “Will robots create more jobs than they destroy?”. The Guardian. オリジナルの2018年6月16日時点におけるアーカイブ。. https://web.archive.org/web/20180616204119/https://www.theguardian.com/technology/2015/sep/06/will-robots-create-destroy-jobs 2018年1月13日閲覧。
- White Paper: On Artificial Intelligence – A European approach to excellence and trust. Brussels: European Commission. (2020). オリジナルの20 February 2020時点におけるアーカイブ。. https://web.archive.org/web/20200220173419/https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf 2020年2月20日閲覧。
- Anderson, Michael; Anderson, Susan Leigh (2011). Machine Ethics. Cambridge University Press.
- "Machine Ethics". aaai.org. 2014年11月29日時点のオリジナルよりアーカイブ。2014年11月29日閲覧。
- Russell, Stuart (8 October 2019). Human Compatible: Artificial Intelligence and the Problem of Control. United States: Viking. ISBN 978-0-525-55861-3. OCLC 1083694322
- "AI set to exceed human brain power". CNN. 2006年8月9日. 2008年2月19日時点のオリジナルよりアーカイブ。
- "Robots could demand legal rights". BBC News. 2006年12月21日. 2019年10月15日時点のオリジナルよりアーカイブ。2011年2月3日閲覧。
- "Kismet". MIT Artificial Intelligence Laboratory, Humanoid Robotics Group. 2014年10月17日時点のオリジナルよりアーカイブ。2014年10月25日閲覧。
- Smoliar, Stephen W.; Zhang, HongJiang (1994). “Content based video indexing and retrieval”. IEEE MultiMedia 1 (2): 62–72. doi:10.1109/93.311653.
- Neumann, Bernd; Möller, Ralf (January 2008). “On scene interpretation with description logics”. Image and Vision Computing 26 (1): 82–101. doi:10.1016/j.imavis.2007.08.013.
- Kuperman, G. J.; Reichley, R. M.; Bailey, T. C. (1 July 2006). “Using Commercial Knowledge Bases for Clinical Decision Support: Opportunities, Hurdles, and Recommendations”. Journal of the American Medical Informatics Association 13 (4): 369–371. doi:10.1197/jamia.M2055. PMC 1513681. PMID 16622160. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC1513681/.
- McGarry, Ken (1 December 2005). “A survey of interestingness measures for knowledge discovery”. The Knowledge Engineering Review 20 (1): 39–61. doi:10.1017/S0269888905000408.
- Bertini, M; Del Bimbo, A; Torniai, C (2006). "Automatic annotation and semantic retrieval of video sequences using multimedia ontologies". MM '06 Proceedings of the 14th ACM international conference on Multimedia. 14th ACM international conference on Multimedia. Santa Barbara: ACM. pp. 679–682.
- Kahneman, Daniel (25 October 2011). Thinking, Fast and Slow. Macmillan. ISBN 978-1-4299-6935-2. https://books.google.com/books?id=ZuKTvERuPG8C 2012年4月8日閲覧。
- Turing, Alan (1948), “Machine Intelligence”, in Copeland, B. Jack, The Essential Turing: The ideas that gave birth to the computer age, Oxford: Oxford University Press, p. 412, ISBN 978-0-19-825080-7
- Domingos, Pedro (22 September 2015). The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World. Basic Books. ISBN 978-0465065707
- Minsky, Marvin (1986), The Society of Mind, Simon and Schuster
- Pinker, Steven (4 September 2007), The Language Instinct, Perennial Modern Classics, Harper, ISBN 978-0-06-133646-1
- Chalmers, David (1995). “Facing up to the problem of consciousness”. Journal of Consciousness Studies 2 (3): 200–219. オリジナルの8 March 2005時点におけるアーカイブ。. https://web.archive.org/web/20050308163649/http://www.imprint.co.uk/chalmers.html 2018年10月11日閲覧。.
- Roberts, Jacob (2016). “Thinking Machines: The Search for Artificial Intelligence”. Distillations 2 (2): 14–23. オリジナルの19 August 2018時点におけるアーカイブ。. https://web.archive.org/web/20180819152455/https://www.sciencehistory.org/distillations/magazine/thinking-machines-the-search-for-artificial-intelligence 2018年3月20日閲覧。.
- Pennachin, C.; Goertzel, B. (2007). “Contemporary Approaches to Artificial General Intelligence”. Artificial General Intelligence. Cognitive Technologies. Berlin, Heidelberg: Springer. doi:10.1007/978-3-540-68677-4_1. ISBN 978-3-540-23733-4
- "Ask the AI experts: What's driving today's progress in AI?". McKinsey & Company. 2018年4月13日時点のオリジナルよりアーカイブ。2018年4月13日閲覧。
- Ransbotham, Sam; Kiron, David; Gerbert, Philipp; Reeves, Martin (6 September 2017). “Reshaping Business With Artificial Intelligence”. MIT Sloan Management Review. オリジナルの19 May 2018時点におけるアーカイブ。. https://web.archive.org/web/20180519171905/https://sloanreview.mit.edu/projects/reshaping-business-with-artificial-intelligence/ 2018年5月2日閲覧。.
- “The state of AI adoption”. O'Reilly Media (2017年12月18日). 2018年5月2日時点のオリジナルよりアーカイブ。2018年5月2日閲覧。
- "AlphaGo – Google DeepMind". 2021年10月20日時点のオリジナルよりアーカイブ。2021年10月20日閲覧。
- Asada, M.; Hosoda, K.; Kuniyoshi, Y.; Ishiguro, H.; Inui, T.; Yoshikawa, Y.; Ogino, M.; Yoshida, C. (2009). “Cognitive developmental robotics: a survey”. IEEE Transactions on Autonomous Mental Development 1 (1): 12–34. doi:10.1109/tamd.2009.2021702.
- Ashok83 (2019年9月10日). “How AI Is Getting Groundbreaking Changes In Talent Management And HR Tech”. Hackernoon. 2019年9月11日時点のオリジナルよりアーカイブ。2020年2月14日閲覧。
- Berlinski, David (2000). The Advent of the Algorithm. Harcourt Books. ISBN 978-0-15-601391-8. OCLC 46890682. オリジナルの26 July 2020時点におけるアーカイブ。. https://web.archive.org/web/20200726215744/https://archive.org/details/adventofalgorith0000berl 2020年8月22日閲覧。
- Brooks, Rodney (1990). “Elephants Don't Play Chess”. Robotics and Autonomous Systems 6 (1–2): 3–15. doi:10.1016/S0921-8890(05)80025-9. オリジナルの9 August 2007時点におけるアーカイブ。. https://web.archive.org/web/20070809020912/http://people.csail.mit.edu/brooks/papers/elephants.pdf.
- Butler, Samuel (1863年6月13日). “Darwin among the Machines”. The Press (Christchurch, New Zealand). オリジナルの2008年9月19日時点におけるアーカイブ。. https://web.archive.org/web/20080919172551/http://www.nzetc.org/tm/scholarly/tei-ButFir-t1-g1-t1-g1-t4-body.html 2014年10月16日閲覧。
- Clark, Jack (2015a年). "Musk-Backed Group Probes Risks Behind Artificial Intelligence". Bloomberg.com. 2015年10月30日時点のオリジナルよりアーカイブ。2015年10月30日閲覧。
- Clark, Jack (2015b). “Why 2015 Was a Breakthrough Year in Artificial Intelligence”. オリジナルの2016年11月23日時点におけるアーカイブ。. https://web.archive.org/web/20161123053855/https://www.bloomberg.com/news/articles/2015-12-08/why-2015-was-a-breakthrough-year-in-artificial-intelligence 2016年11月23日閲覧。
- Dennett, Daniel (1991). Consciousness Explained. The Penguin Press. ISBN 978-0-7139-9037-9
- Dreyfus, Hubert (1972). What Computers Can't Do. New York: MIT Press. ISBN 978-0-06-011082-6
- Dreyfus, Hubert; Dreyfus, Stuart (1986). Mind over Machine: The Power of Human Intuition and Expertise in the Era of the Computer. Oxford, UK: Blackwell. ISBN 978-0-02-908060-3. オリジナルの26 July 2020時点におけるアーカイブ。. https://web.archive.org/web/20200726131414/https://archive.org/details/mindovermachinep00drey 2020年8月22日閲覧。
- Dyson, George (1998). Darwin among the Machines. Allan Lane Science. ISBN 978-0-7382-0030-9. オリジナルの26 July 2020時点におけるアーカイブ。. https://web.archive.org/web/20200726131443/https://archive.org/details/darwinamongmachi00dyso 2020年8月22日閲覧。
- Edelson, Edward (1991). The Nervous System. New York: Chelsea House. ISBN 978-0-7910-0464-7. オリジナルの26 July 2020時点におけるアーカイブ。. https://web.archive.org/web/20200726131758/https://archive.org/details/nervoussystem0000edel 2019年11月18日閲覧。
- Fearn, Nicholas (2007). The Latest Answers to the Oldest Questions: A Philosophical Adventure with the World's Greatest Thinkers. New York: Grove Press. ISBN 978-0-8021-1839-4
- Haugeland, John (1985). Artificial Intelligence: The Very Idea. Cambridge, Mass.: MIT Press. ISBN 978-0-262-08153-5
- Hawkins, Jeff; Blakeslee, Sandra (2005). On Intelligence. New York: Owl Books. ISBN 978-0-8050-7853-4
- Henderson, Mark (2007年4月24日). “Human rights for robots? We're getting carried away”. The Times Online (London). オリジナルの2014年5月31日時点におけるアーカイブ。. https://web.archive.org/web/20140531104850/http://www.thetimes.co.uk/tto/technology/article1966391.ece 2014年5月31日閲覧。
- Kahneman, Daniel; Slovic, D.; Tversky, Amos (1982). Judgment under uncertainty: Heuristics and biases. 185. New York: Cambridge University Press. 1124–1131. Bibcode: 1974Sci...185.1124T. doi:10.1126/science.185.4157.1124. ISBN 978-0-521-28414-1. PMID 17835457
- Katz, Yarden (1 November 2012). “Noam Chomsky on Where Artificial Intelligence Went Wrong”. The Atlantic. オリジナルの28 February 2019時点におけるアーカイブ。. https://web.archive.org/web/20190228154403/https://www.theatlantic.com/technology/archive/2012/11/noam-chomsky-on-where-artificial-intelligence-went-wrong/261637/?single_page=true 2014年10月26日閲覧。.
- Kurzweil, Ray (2005). The Singularity is Near. Penguin Books. ISBN 978-0-670-03384-3
- Langley, Pat (2011). “The changing science of machine learning”. Machine Learning 82 (3): 275–279. doi:10.1007/s10994-011-5242-y.
- Legg, Shane; Hutter, Marcus (15 June 2007). "A Collection of Definitions of Intelligence". arXiv:0706.3639 [cs.AI]。
- Lenat, Douglas; Guha, R. V. (1989). Building Large Knowledge-Based Systems. Addison-Wesley. ISBN 978-0-201-51752-1
- Lighthill, James (1973). “Artificial Intelligence: A General Survey”. Artificial Intelligence: a paper symposium. Science Research Council
- Lombardo, P; Boehm, I; Nairz, K (2020). “RadioComics – Santa Claus and the future of radiology”. Eur J Radiol 122 (1): 108771. doi:10.1016/j.ejrad.2019.108771. PMID 31835078.
- Lungarella, M.; Metta, G.; Pfeifer, R.; Sandini, G. (2003). “Developmental robotics: a survey”. Connection Science 15 (4): 151–190. doi:10.1080/09540090310001655110.
- Maker, Meg Houston (2006年). “AI@50: AI Past, Present, Future”. 2007年1月3日時点のオリジナルよりアーカイブ。2008年10月16日閲覧。
- McCarthy, John; Minsky, Marvin; Rochester, Nathan; Shannon, Claude (1955年). "A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence". 2007年8月26日時点のオリジナルよりアーカイブ。2007年8月30日閲覧。
- Minsky, Marvin (1967). Computation: Finite and Infinite Machines. Englewood Cliffs, N.J.: Prentice-Hall. ISBN 978-0-13-165449-5. オリジナルの26 July 2020時点におけるアーカイブ。. https://web.archive.org/web/20200726131743/https://archive.org/details/computationfinit0000mins 2019年11月18日閲覧。
- Moravec, Hans (1988). Mind Children. Harvard University Press. ISBN 978-0-674-57616-2. オリジナルの26 July 2020時点におけるアーカイブ。. https://web.archive.org/web/20200726131644/https://archive.org/details/mindchildrenfutu00mora 2019年11月18日閲覧。
- NRC (United States National Research Council) (1999). “Developments in Artificial Intelligence”. Funding a Revolution: Government Support for Computing Research. National Academy Press
- Newell, Allen; Simon, H. A. (1976). “Computer Science as Empirical Inquiry: Symbols and Search”. Communications of the ACM 19 (3): 113–126. doi:10.1145/360018.360022. .
- Nilsson, Nils (1983). “Artificial Intelligence Prepares for 2001”. AI Magazine 1 (1). オリジナルの17 August 2020時点におけるアーカイブ。. https://web.archive.org/web/20200817194457/http://ai.stanford.edu/~nilsson/OnlinePubs-Nils/General%20Essays/AIMag04-04-002.pdf 2020年8月22日閲覧。. Presidential Address to the Association for the Advancement of Artificial Intelligence.
- Oudeyer, P-Y. (2010). “On the impact of robotics in behavioral and cognitive sciences: from insect navigation to human cognitive development”. IEEE Transactions on Autonomous Mental Development 2 (1): 2–16. doi:10.1109/tamd.2009.2039057. オリジナルの3 October 2018時点におけるアーカイブ。. https://web.archive.org/web/20181003202543/http://www.pyoudeyer.com/IEEETAMDOudeyer10.pdf 2013年6月4日閲覧。.
- Schank, Roger C. (1991). “Where's the AI”. AI magazine 12 (4).
- Searle, John (1980). “Minds, Brains and Programs”. Behavioral and Brain Sciences 3 (3): 417–457. doi:10.1017/S0140525X00005756. オリジナルの17 March 2019時点におけるアーカイブ。. https://web.archive.org/web/20190317230215/http://cogprints.org/7150/1/10.1.1.83.5248.pdf 2020年8月22日閲覧。.
- Searle, John (1999). Mind, language and society. New York: Basic Books. ISBN 978-0-465-04521-1. OCLC 231867665. オリジナルの26 July 2020時点におけるアーカイブ。. https://web.archive.org/web/20200726220615/https://archive.org/details/mindlanguagesoci00sear 2020年8月22日閲覧。
- Simon, H. A. (1965). The Shape of Automation for Men and Management. New York: Harper & Row. オリジナルの26 July 2020時点におけるアーカイブ。. https://web.archive.org/web/20200726131655/https://archive.org/details/shapeofautomatio00simo 2019年11月18日閲覧。
-
Solomonoff, Ray (1956). An Inductive Inference Machine (PDF). Dartmouth Summer Research Conference on Artificial Intelligence. 2011年4月26日時点のオリジナルよりアーカイブ (PDF)。std.com, pdf scanned copy of the originalより2011年3月22日閲覧。 Later published as
Solomonoff, Ray (1957). “An Inductive Inference Machine”. IRE Convention Record. Section on Information Theory, part 2. pp. 56–62 - Spadafora, Anthony (2016年10月21日). “Stephen Hawking believes AI could be mankind's last accomplishment”. BetaNews. 2017年8月28日時点のオリジナルよりアーカイブ。2017年8月28日閲覧。
- Tao, Jianhua; Tan, Tieniu (2005). Affective Computing and Intelligent Interaction. Affective Computing: A Review. Lecture Notes in Computer Science. LNCS 3784. Springer. pp. 981–995. doi:10.1007/11573548. ISBN 978-3-540-29621-8。
- Tecuci, Gheorghe (March–April 2012). “Artificial Intelligence”. Wiley Interdisciplinary Reviews: Computational Statistics 4 (2): 168–180. doi:10.1002/wics.200.
- Thro, Ellen (1993). Robotics: The Marriage of Computers and Machines. New York: Facts on File. ISBN 978-0-8160-2628-9. オリジナルの26 July 2020時点におけるアーカイブ。. https://web.archive.org/web/20200726131505/https://archive.org/details/isbn_9780816026289 2020年8月22日閲覧。
- Turing, Alan (October 1950), "Computing Machinery and Intelligence", Mind, LIX (236): 433–460, doi:10.1093/mind/LIX.236.433, ISSN 0026-4423。.
- UNESCO Science Report: the Race Against Time for Smarter Development.. Paris: UNESCO. (11 June 2021). ISBN 978-92-3-100450-6. https://unesdoc.unesco.org/ark:/48223/pf0000377433/PDF/377433eng.pdf.multi
- Vinge, Vernor (1993). “The Coming Technological Singularity: How to Survive in the Post-Human Era”. Vision 21: Interdisciplinary Science and Engineering in the Era of Cyberspace: 11. Bibcode: 1993vise.nasa...11V. オリジナルの1 January 2007時点におけるアーカイブ。. https://web.archive.org/web/20070101133646/http://www-rohan.sdsu.edu/faculty/vinge/misc/singularity.html 2011年11月14日閲覧。.
- Wason, P. C.; Shapiro, D. (1966). “Reasoning”. In Foss, B. M.. New horizons in psychology. Harmondsworth: Penguin. オリジナルの26 July 2020時点におけるアーカイブ。. https://archive.org/details/newhorizonsinpsy0000foss 2019年11月18日閲覧。
- Weng, J.; McClelland; Pentland, A.; Sporns, O.; Stockman, I.; Sur, M.; Thelen, E. (2001). “Autonomous mental development by robots and animals”. Science 291 (5504): 599–600. doi:10.1126/science.291.5504.599. PMID 11229402. オリジナルの4 September 2013時点におけるアーカイブ。. https://web.archive.org/web/20130904235242/http://www.cse.msu.edu/dl/SciencePaper.pdf 2013年6月4日閲覧。.
関連項目
教育研究・研究開発
研究開発・応用科学
開発事例・応用事例
研究課題
関連分野
AIに関する哲学的項目
外部リンク
- 人工知能のやさしい説明「What's AI」
- 人工知能ハンドブック(英語)
- 「Can Machine Think?」(英語) - ラジオ番組「フィロソフィー・トーク」のバックナンバー。テーマ:「機械は考えられるのか?」 ゲスト:ジョン・サール、ジョン・マッカーシー、59分08秒。
分野 | |||||||
---|---|---|---|---|---|---|---|
コンセプト | |||||||
指向 | |||||||
モデル |
|
||||||
主な人物 | |||||||
関連項目 | |||||||
ハードウェア | |
---|---|
コンピュータシステムの構造 | |
ネットワーク | |
ソフトウェアの構造 | |
とツール |
|
ソフトウェア開発 | |
計算理論 | |
アルゴリズム | |
コンピューティングの数学 | |
情報システム | |
セキュリティ | |
ヒューマンコンピュータ インタラクション |
|
並行性 | |
人工知能 | |
機械学習 | |
グラフィックス | |
応用コンピューティング | |
建設工学 | |
---|---|
海洋工学 | |
都市工学 | |
機械工学 | |
電気工学 | |
資源工学 | |
化学工学 | |
生物工学 | |
医工学 | |
食品工学 | |
経営工学 | |
学際 | |
関連項目 | |
用語集 | |
新技術
| |||
---|---|---|---|
分野 |
|
||
トピック | |||