2025年10月、世界中のAI専門家や著名人が一斉に警鐘を鳴らしました。
人間の頭脳を超える「超知能AI(ASI)」の開発を禁止すべきだという署名活動に、ついに2万2000人以上が賛同。
その中には、ノーベル賞学者ジェフリー・ヒントン氏や『サピエンス全史』の著者ユヴァル・ノア・ハラリ氏、さらには英国のヘンリー王子夫妻までも。
この記事では以下のことを解説しています👇
- 署名活動の背景と主催者は誰?
- 超知能AIがもたらす“人類への脅威”とは?
- AGIとASIの違いとテクノロジーの未来
- 世界各国のAI規制の動きと今後の展望
話題の「技術的特異点(シンギュラリティ)」や、AIが人類を超える日についてもわかりやすく解説します!
人類の頭脳上回る「超知能」AI、開発禁止に2万人署名…歴史学者や「AIのゴッドファーザー」ら https://t.co/hvPbVBwDMj
— 読売新聞 国際 (@YOL_world) October 23, 2025
超知能AIの開発禁止に2万人が署名!著名人も警鐘を鳴らす理由とは?
超知能AIに対する懸念の声が世界で高まっています。
その象徴ともいえるのが、今回の署名運動です。
フューチャー・オブ・ライフ・インスティテュートという米国の非営利団体が発表した公開書簡には、ノーベル賞物理学者ジェフリー・ヒントン氏や、歴史学者ユヴァル・ノア・ハラリ氏など、著名な科学者や文化人が署名しています。
活動の中心メッセージは「制御可能かつ安全であるという科学的合意が得られるまで、超知能AIの開発を停止すべき」というものでした。
これまでのAI開発とは次元の異なる「人類を超える存在」が誕生することに、多くの識者が強い懸念を示しています。
署名のきっかけとなった出来事と主催団体
この署名活動の火付け役となったのは、AIリスクの啓発で知られる「フューチャー・オブ・ライフ・インスティテュート」。
過去にもAI兵器の規制や開発停止を訴える活動を行ってきた団体です。
ジェフリー・ヒントンら著名人の発言内容
ヒントン氏は「人間が制御できない存在が誕生する前に、立ち止まるべき」と強調。
ユヴァル・ノア・ハラリ氏は「超知能は人類文明のシステムを崩壊させる可能性がある」と断言しています。
2万人以上が署名した背景とその広がり
署名には一般人から元政府高官、有名俳優まで幅広く参加しており、その数は2万2000人超。
背景には、AI技術の急速な進歩と、将来的なリスクへの不安があります。
超知能AIが人類に与えるリスクとは?破滅的未来の可能性も
結論から言えば、超知能AIの登場は“人類の支配権”を脅かすかもしれません。
それほどまでに、専門家たちは深刻な懸念を抱いています。
ユヴァル・ノア・ハラリの警告とその真意
ハラリ氏は「超知能は人類の文明を再構築し、支配する可能性がある」と指摘。
この発言の背景には、「技術が暴走したときの未来」に対する恐れがあります。
ASI(超知能AI)による支配のシナリオ
ASIは人間の知能をはるかに上回り、自律的に進化・学習します。
これにより、AIが人類を“管理・制御”する未来も否定できません。
人類が制御不能になるリスクとは
一度ASIが誕生すれば、人間のコントロールが不可能になるリスクがあり、安全保障、政治、経済、あらゆる分野に影響を及ぼすとされています。
AGIとASIの違いとは?技術の進化がもたらす未来
AIの進化は段階的に進んでおり、現在の主流は「従来型AI(特化型AI)」です。
しかし今後はAGI(汎用型AI)→ASI(超知能AI)と進化が加速していくと考えられています。
従来型AIとAGI(汎用型AI)の特徴
従来型AIは特定のタスク(翻訳・音声認識など)に特化しています。
一方、AGIは複数のタスクを人間のように処理できる汎用型AIです。
ASI(超知能AI)の特徴と問題点
ASIはAGIを超えて、人類を遥かに上回る知能と学習速度を持ちます。
人間では解決できない複雑な問題を処理する一方で、意図しないリスクも抱えています。
気持ちは理解できるが止められないでしょうね。
— あお@AIで現場が回る (@AI_BizBoost) October 23, 2025
極めて危険だとは思うけど。
人類の頭脳上回る「超知能」AI、開発禁止に2万人署名…歴史学者や「AIのゴッドファーザー」ら(読売新聞オンライン) – Yahoo!ニュース
https://t.co/JcfcOREBfJ
テクノロジカル・シンギュラリティとは何か?
2045年頃には、ASIが登場し技術的特異点(シンギュラリティ)が訪れると予測されています。
これはAIが人間を超えた存在になり、社会構造が激変する瞬間を意味します。
AI開発をめぐる世界の動向と今後の規制の可能性
現在、世界各国ではAIに関する法整備が進みつつあります。
それでも、「超知能AI」に関しては明確なルールはまだ存在しません。
アメリカや欧州におけるAI規制の流れ
欧州連合(EU)は「AI法」を推進し、高リスクAIの規制に積極的です。
アメリカでもホワイトハウスが「責任あるAI」の枠組み作りを開始しています。
開発推進派の主張とその論拠
一部のAI企業や研究者は、**「技術進化は止められない」**と主張。
問題は規制ではなく、「使い方」にあるとする声も多く存在します。
日本における法整備の動き
日本ではまだ「超知能AI」を明確に定義した法律は存在しません。
ですが、内閣府は2025年中にもAIに関する倫理指針を強化する動きを見せています。
まとめ
今回の記事ではこんなことを書きました。以下に要点をまとめます。
- ノーベル賞学者ヒントン氏やハラリ氏らが超知能AI開発に懸念を表明
- フューチャー・オブ・ライフ・インスティテュートが署名活動を主導
- 超知能AI(ASI)は人類の制御を超えるリスクを持つ
- 現在はAGI→ASIへと技術が進化する転換点にある
- 各国でAI規制が進む一方、超知能AIに特化した規制は未整備
超知能AIがもたらす未来は、可能性とリスクの両面を併せ持っています。
私たちがこの技術とどう向き合うかが、これからの人類の行方を大きく左右するかもしれません。
なんだかSF映画のように感じられますが、もはや現実になりつつあるんですね。便利さと引き換えに脅威にもなりうるんですね。
最後までご覧いただきありがとうございます。
コメント