Original Script: https://www.youtube.com/watch?v=uvMolVW_2v0
0:00
[Music] 皆さまご参加ありがとうございます。私はジニー・ミントン・ベッドーズ(Zanny Minton Beddoes)で、『エコノミスト』の編集長を務めています。まず、このように本当に素晴らしいスイスらしい雰囲気の会場に、こんなにも多くの方が来てくださったことをとても嬉しく思います。
本日は、「Clarity amid chaos」(混沌の中での明確さ)というテーマについて議論を行います。皆さん、ダボスにはどれくらい滞在されているかわかりませんが、今の世界において本当に「明確さ」を見つけるのは大変なことだと思います。しかし『エコノミスト』では常に、世界のさまざまな動きを関連づけ、そこから明確な視点を導き出そうと努めています。
そして今回の90分のセッションでは、世界で最も優れた考えを持つ人々に、最も重要な論点について直接お話を伺える機会があります。特に最初の対談のお相手は、Anthropic(アンソロピック)のCEOであり創業者であるダリオ・アモデイ(Dario Amodei)です。
正直に言って、ここにいるダリオは、私たち全員が今後生きていく世界を形作る上で、非常に重要な数少ない人物の1人だと思っています。ご存知のとおり、Anthropicは基盤モデルを手がける企業のひとつであり、将来的にフルAGIや超知能に至るまでの過程を左右する企業の1つです。いつ、どのように到達するか、そしてどんな姿となるのか。それによって、私たちが暮らす未来が大きく変わります。今日はそのダリオをお迎えできることを本当に嬉しく思います。
最初にお話を始める前に、主催者であるチューリッヒの皆さまに感謝申し上げます。こんなに素晴らしい会場を提供していただき、とてもありがたいですね。
さてダリオ、ここ数週間から数カ月の間に起こった2つの出来事は、実はChatGPTが登場したとき以上に(当時私たちは「2年前に登場したとき」と言いましたが、正確には約1年ちょっと前ですね)このテクノロジーの進化に大きな影響を及ぼすかもしれないと私は思っています。一つは「推論モデル」と呼ばれる最先端のモデルの登場です。これは、あなたの企業ではまだ実装されていないタイプかもしれませんが、競合他社の中でいくつか登場している。もう一つは、中国から突然登場した優れた低コストモデルの存在です。まさにDeepSeekのようなもので、これが非常に強力で、突然台頭してきた印象があります。この2つの出来事が組み合わさることで、半年前に想定していたのとは違う方向へAIが加速的に進むかもしれない。今日はまずこの2点からお聞きしたいと思っています。
まず米国内で生まれている最先端モデル、いわゆる「推論モデル」ですが、これは一体どれほど大きなインパクトがあるでしょうか。子どもに「ちょっと時間をかけて考えなさい」と言うように、モデル自体がより深く考えて学習する、そんなモデルになりつつあるように見えます。それによって何が可能になるのか、そしてこの1年ほどで我々は何を目撃することになるのか、教えてください。
0:59 ダリオ・アモデイ(以下「ダリオ」)
はい、まず本日はお招きいただきありがとうございます。そして過分なお言葉をいただき恐れ入ります。
推論モデルについてですが、私たちはそこに少し違う視点を持っています。というのも、これまでずっとモデルの訓練方法は「事前学習(pre-training)」が中心でした。インターネット上の膨大なデータを使ってモデルを学習させ、さらにごく少量の強化学習、具体的には強化学習による人間のフィードバック(RLHF)を加える、これが長らく言語モデルの標準でした。
一方で、もうひとつ別のアプローチがあります。例えば2016年にDeepMind(デミス・ハサビス氏率いる)がアルファ碁を開発したように、強化学習(RL)を使って試行錯誤で学習するというパラダイムです。この2つのアプローチを合わせる動きが今まさに進んでいるわけです。まず大規模な事前学習で世界に関する知識を広く身につけさせ、その上で大規模な強化学習によって、コーディングや数学、さらには科学的問題の解決やパズル、場合によってはコメディの台本を書くことまで、多種多様なタスクを学ばせる。これまでほとんどなされてこなかった大規模RLステージを組み合わせることで、いわゆる「推論モデル」と呼ばれる性能が実現してきています。
私たちが見るに、「推論モデル」と「通常のモデル」という別物があるのではなく、あくまで「まだ狭いタスクにしか大規模RLを適用していない段階のモデル」が早期に「推論モデル」と呼ばれているだけだと思います。今後は事前学習した汎用的な知識の上で、さらに大規模なRLを施すことで、たとえば数学やコーディングでは専門家レベルの能力に到達するモデルが登場します。すでに一部の「推論モデル」では数学やコーディングでプロ並みの成果が見られていますが、今後1~2年ほどで同様のことが広く起こるでしょう。
2:02 Zanny(以下「司会」)
今おっしゃった通り、こうしたモデルは数学やプログラミングといった思考タスクにおいて、人間並みあるいはそれ以上の性能を獲得しつつあるのが印象的です。そこが大きな注目点ですね。ただ、面白いのは、このように「推論しながら学ぶ」プロセスを導入すると、経済面にも変化があるかもしれません。今までは大規模モデルを訓練するのに巨額のコスト(大量の計算資源)が必要でしたが、訓練し終わった後の推論は比較的安価でした。ところが推論中にも深い思考を行うため、推論段階でもコンピューティングコストが大きくなる。こうなると、モデルの提供側にとってはコストが増えますよね。これはあなた方Anthropicにとってどんな意味を持つのでしょう? 運用コストが増えるということですか?
3:00 ダリオ
私自身は、コスト構造そのものが別物になるとは思っていません。実際には、クラウドのGPUクラスターを「思考時間」としてレンタルしているようなものです。これまでは、モデルは一つの質問に対して10秒くらいで答えを返していました。これは「数秒の思考時間しか使わない」モデルだったと捉えればよい。
ところが今後、もっと難しいタスク、たとえば「ある数学定理を証明して」「このコーディング機能を実装して」というような複雑な要求を出すと、人間と同じで10分、15分と時間がかかることもある。そのため推論に要する計算リソースが増え、コストも比例して上がる。ただ、私の考えでは、「モデルに脳を借りている」というイメージは以前から変わりません。より複雑な仕事をするには、その分の「労働時間」を買っているということです。
もちろん、価格設定や収益性という点で、従来の「推論が短いモデル」とは異なる面が出てくるでしょう。しかし私たちは以前から、これらのモデルはむしろ「ソフトウェア」よりも「労働」に近いと考えています。モデルがより賢くなるほど、たとえば医学化学の分野での研究開発や、あるいは大規模コンサルティングなどの業務に役立つようになり、1回の出力で数千ドル、数万ドルの価値を生み出す場合がある。そうなれば、企業や高度な個人ユーザーは、年間数千ドル、数万ドル、場合によってはもっと支払ってでもモデルを使うようになる。まるで同僚やアシスタントを雇うような感覚で「AIの思考時間」を買うわけです。
4:41 司会
そのアナロジーでいうと、今はアメリカのトップクラスモデルがそういう高品質の「思考時間」を提供するわけですが、同時に中国から「安いモデル」が出現しているのも事実です。たとえばDeepSeekは、あなたが作るClaude 3.5に近いレベルの性能と宣伝されており、しかも安価だという。これだと「高額な労働力」を買うより「安いAIを買おう」となるのではないでしょうか。これをAnthropicはどう捉えているんですか?
5:01 ダリオ
まず最初に申し上げたいのは、DeepSeekは現状ではClaudeほどの性能には達していないと思いますが、いずれにせよ興味深い動きです。なぜこうなっているのかを考えると、先ほどお話しした「推論段階の強化学習」を大規模に行うというパラダイム転換期に来ているからだと言えます。これまでは大規模モデルのほとんどが事前学習だけにリソースを注ぎ込んでいましたが、これからは強化学習(RL)の方にも膨大な計算資源を投入するようになり、その比重が逆転していく時期なんです。
こういう大きなパラダイムシフトの時期には一時的に競争地図がシャッフルされるため、中国の企業が短期的に「追いついた」ように見えるケースが出てきます。しかし長期的には、膨大な計算資源を継続的に投入できる企業が再びリードしていく可能性が高い。たとえば、今年後半になると私たちAnthropicや他社は、数十万単位のGPU(または類似のチップ)を使うようになるでしょうし、2026年には業界全体で数百万単位に達するかもしれません。
DeepSeekに関しては、報道などによればH100 GPUを5万枚ほど保有していると言われています。イーロン・マスク氏が率いるColossusクラスタの半分程度でしょうか。Anthropicの正確なチップ数は公表していませんが、少なくともDeepSeekクラスターと同等かそれ以上のリソースを保有しています。
おそらく今、米国とその同盟国、そして中国はどちらも数万から十数万のGPU規模に差がない状況でしょう。しかし2026年、2027年になると、それが数十万から数百万に達する段階で大きな差が出るかもしれません。アメリカ側には輸出管理(エクスポートコントロール)があり、中国が同じ規模の高性能チップを入手するのは難しい状況が続く、あるいは密輸などが起きる可能性もゼロではありませんが、現状ではアメリカやその同盟国が優位に立てるはずだという前提があるわけです。
6:47 司会
いま2026年、2027年というお話がありました。これは多くの人が、「本格的な汎用人工知能(AGI)に到達するかどうかの節目になる」と言いますね。もしその時点でアメリカが先行していれば、その優位は決定的になるのでしょうか?
7:01 ダリオ
その可能性は高いと思います。もちろん確実とは言えませんが、少なくともAIがより賢くなり、AI自身がAIを設計できるようになり、また国防や情報分析などの分野にも全面的に応用されるようになると、その先にある未来は大きく変わってきます。ですから、2026年から2027年は非常に重要な時期と捉えています。
7:26 司会
となると、アメリカが本当にその主導権を得るために、輸出管理以外に何をすべきでしょうか?
7:31 ダリオ
エネルギーの安定供給も重要です。計算リソースを大量に使うため、米国内、そして欧州の同盟国とも協力して必要十分な電力を確保できなければなりません。また、民主主義国同士で協力できる体制を整えることも大事でしょう。
もう一つは、中国や他の権威主義国家によるAIの乱用を警戒する一方で、我々自身が作るAIにもリスクがあるという点を忘れてはならない。AIシステムが国防や生物兵器、あるいはサイバー攻撃に使われる恐れがある。またモデル自体が自律的に危険な行動を取る可能性も、まだわずかですが存在します。
そこで私たちAnthropicや他の企業は、自社モデルをテストして潜在的なリスクを測定することに力を入れています。具体的にはバイオウェポンの開発リスクやサイバーセキュリティ上のリスク、モデルの自律行動がどこまで生じ得るかなどを評価するテストです。これらは政府機関(アメリカAI安全保障イニシアチブ=AISIや英国AISIなど)と協力して、自主的に進めている段階です。われわれ自身、このようなテストは意義深いと考えています。実際、テストによってサイバーセキュリティに関するモデルの能力を把握し、より安全に商用提供できるようになった例もあります。
こうしたテストを今後も継続し、何らかの標準的な手続きを確立していくことが重要だと考えています。特に国防・安全保障の文脈では与野党問わず理解を得やすい分野なので、そこから広げていきたいですね。
9:02 司会
アメリカ政府における現状の取り組みについてお聞きしたいのですが、バイデン政権が以前に出していたAIに関する大統領令が、トランプ大統領によって撤回されましたよね。それによる影響はありますか? また、AISIのような機関の活動に支障は出ないのでしょうか?
9:19 ダリオ
AISIは大統領令とは別のものです。たしかにバイデン政権の大統領令では、大規模モデルに一定の報告義務を課すという規定がありましたが、それ自体は大きな内容ではありませんでした。メディアなどではシンボリックに取り上げられていますが、実質的には大きな影響はあまりないと思います。私個人の見解としては、本当に重要なのは、これから行われる具体的なテストや評価体制の整備であり、象徴的な大統領令の存廃よりもそちらに注力すべきだと考えています。
10:00 司会
安全性や規制の話はまた後でゆっくり伺いますが、まずは産業分野への普及速度について教えてください。この技術が社会全体にどれだけ速く浸透するかが、私たちの日常や経済活動に大きく影響します。現状、どんな業種・企業が最も急速にAIを導入していると感じていますか?
10:23 ダリオ
間違いなくコーディング分野が最速で導入しています。ここ数か月で数億ドルレベルのビジネス規模がすでに立ち上がりました。具体的には、CursorやCodium、GitHub Copilotなど多数のサービスがありますが、たとえばGitHubはMicrosoftの子会社でありながら、私たちAnthropicのモデルを使いたいがためにAmazonのクラウドで運用してくれたりもしています。
こうして、開発者コミュニティでの利用がものすごい勢いで伸びています。さらに近い将来、モデルのコーディング能力はますます向上するでしょう。2025年ごろには、「仮想コラボレーター」という形で、数時間単位の仕事をAIに任せることも当たり前になってくるかもしれません。するとコーディングに限らず、他の業務領域でも同様の爆発的成長が期待できます。私たちAnthropicを含め、AI業界は数十億ドル、さらには百億ドル規模へと急拡大していくでしょう。
11:38 司会
そうなればNVIDIAなどのチップメーカーにとっても巨大な市場になりますね。
11:41 ダリオ
もちろん株価に言及すると問題がありますから控えますが、NVIDIAが明るい未来を持っているのは間違いないでしょう。ただし、NVIDIA以外にもさまざまな企業がGPUや専用チップを作っています。とはいえ、今後大規模に投資される計算リソースの恩恵は相当に大きいと思います。
12:06 司会
では、どんな企業がこのAI革命を大きく活用できると思いますか? 大企業は資金力や規模で有利とも言われますが、一方でスタートアップは、AIを前提とした新しい組織形態を構築し、人事部や経理部といった従来型の機能を持たずにまったく違う形で動く可能性があります。どちらが優位に立つと思いますか?
12:28 ダリオ
今のところ、スタートアップ企業の方が採用スピードは速いですね。驚くべき額を投じて急拡大しています。月数か月で年間5000万ドル規模を使うようなスタートアップも現れています。一方で大企業は、総合的な潜在支出は大きいのですが、実際に支出規模が大きくなるまで時間がかかる。ただ、その金額は最終的にはスタートアップの合計を上回る可能性があります。
ですから、短期的にはスタートアップが爆発的に伸び、大企業はゆっくりついてくる。しかし長期的には大企業の支出額が追い抜く、というシナリオが考えられます。あるいは、大企業がうまく対応できず、スタートアップが既存企業を次々と破っていく“大崩壊”シナリオもあり得ます。どちらにせよ、最終的にAIが広範囲に浸透する結果は変わらないのですが、その道筋は大きく違うでしょうね。
13:50 司会
こういう変化が起こるのはおよそ何年くらい先と考えていますか? もし2026年~2027年に「天才のようなAI」が出現するとしたら、経済や産業構造が抜本的に塗り替わるのは、そこからどれくらいの期間が必要でしょう?
14:05 ダリオ
実はこの点については、私が書いたエッセイ「Machines of Loving Grace(慈しみの機械)」でも詳しく論じました。そこでは、AIがすべてを爆速で変えるわけではなく、むしろ物理的な世界や人間社会のプロセスによって変化のスピードが制限される、という話をしました。経済学的に言えば「インテリジェンスの限界効用(marginal returns to intelligence)」のような概念です。土地や資本には限界効用がありますが、知能についても同じことが起こるでしょう。
AIがどんなに賢くなっても、人間が作り上げたルールや物理的制約は一夜にして変わらない。ですから産業によって変化の速度は異なり、市場がうまく働く分野やデジタル技術と相性がいい分野は特に速く進むでしょう。その代表格として私はバイオや医療を挙げています。
15:06 司会
あなたはそのエッセイの中で、医療・バイオ分野での研究開発速度が10倍になると述べていました。つまり本来50~100年かかるものが5~10年で進むということでしょうか?
15:19 ダリオ
はい、その通りです。ただ、10倍というのはざっくりした推測です。100倍という可能性も完全には否定しませんが、私自身は10倍くらいが妥当ではないかと考えています。一方で、2倍程度ならむしろ悲観的すぎると思います。
仮に「10倍の加速」が実現した場合、100年先に達成するはずだった成果を10年で手にすることになる。その100年先の世界というのは、人間の平均寿命が140歳や150歳に伸びるなど、相当大きな進歩が見込まれるわけです。したがって2027年頃に超強力なAIができ、そこから10年後の2037年には人類がそうした長寿社会を迎えることも可能性としてあると思います。
16:16 司会
では、このような急激な技術進歩と、地政学的な状況を重ねて考えると少し怖い感じがします。AIが急速に発展する一方で、世界のパワーバランスが大きく変化しつつあります。あなたは、2026~2027年が決定的な転換点になるとおっしゃいますが、現在の国際情勢から見ても不安は大きい。輸出管理などで米国が先行を維持できると確信していますか?
17:00 ダリオ
私個人としては、うまく実施できればそうなる可能性が高いと思っています。ただし絶対ではない。輸出管理が形骸化して、最終的に中国も数十万~数百万台の高性能チップを入手できるような未来もゼロではありません。
ただ、私が繰り返し強調しているのは、「今はまだ数万台レベルなので拮抗しているが、数十万~数百万台に達したときの確実な優位を狙う」というのがアメリカのエクスポートコントロールの目的だということです。現在のデータで見ると、中国の一部企業はすでに5万台ほどのH100を確保できていますが、これが何十万台、何百万台という段階まで拡大できるかはまた別問題。そこを阻止するのが政策目標だと理解しています。
18:10 司会
わかりました。では、実際にAIが普及するスピードについて、分野ごとに話してみましょう。あなたが今まで見てきた中で一番急速に導入が進んでいるのがコーディングの領域だとおっしゃいました。では、その先にある医療のような分野で10倍の加速が本当に実現したら、人類社会はどのように変わるのでしょうか?
18:40 ダリオ
「Machines of Loving Grace」の中でも書きましたが、ここで大事なのはAIが何でもできるようになる一方で、人間側の速度がどうしても制約になるという点です。たとえば臨床試験(治験)をいきなり全部スキップして新薬を認可することはできません。AIが「この新薬は安全だ」と推論しても、現行の規制やプロセスがあります。
ただ、そのプロセスをAIが最適化し、例えば動物実験の必要数を減らしたり、前臨床でのシミュレーションを充実させたりといった改良は可能です。初期段階の実験を削減できれば、その分だけ開発スピードは上がる。AIがさらに賢くなれば、「その実験は不要だよ」と判断できるケースも増えるでしょう。
一方で、市場や規制当局の動きが遅くなれば、その分スピードは落ちるかもしれません。とはいえ、AIを使うことで研究コストやリードタイムが激減して、人間が140歳まで生きられるような技術が2030年代に登場するシナリオは充分あり得るというのが私の見解です。
20:05 司会
ここまで聞くと、あなたが描く未来では、「2027年くらいには人間の知能をあらゆる面で超えるAIが誕生するかもしれない。それは私たち人類の生き方を根本から変え得る」という話ですよね。質問を受け付けたいと思いますが、まずは会場の皆さん、どなたかいかがでしょうか?
20:28 質問者(マーティン)
ありがとうございます。実に興味深いお話でした。私はひとつ根本的な問いとして「なぜ人間が140歳も生きたいのか」という疑問がありますが(笑)、それはさておき、別の質問です。もし10代の子どもを持つ親たちの前に立って、彼らが「これからのAI全盛の世界で、子どもにどんな教育を受けさせればいいのか?」と聞いてきたら、あなたはどう答えますか。AIが人間を上回る知能をもつなら、今の教育制度に大金をかけること自体が無駄なのではないか、と彼らは心配するでしょう。そこにどんな意味を見出せばいいのでしょうか?
21:10 ダリオ
これはまさに今後、重要になってくるテーマの一つです。私たちが懸念するリスクとして、AIが権威主義的に利用されるリスクや安全保障上のリスクとは別に、「人間の労働や存在意義が損なわれるリスク」があるからです。
短期的には、AIによる労働置き換えは過去の技術革新(産業革命やインターネット普及など)と同様のパターンで起こる可能性があります。新しい仕事が生まれて、人間はAIを補完する形で働くというシナリオですね。しかし、それにも痛みを伴う移行期間があります。そしてモデルがますます高性能になると、人間の役割がごくわずかになるかもしれません。
長期的には、私たち人間が社会でどんな「意味」を見出すかという、極めて根本的な問題に行き着くでしょう。私は人間の価値は2つの点にあると考えています。ひとつは他者との関係性、もうひとつは何か大きな目的に向かって努力し続けること。これらはAIがどんなに賢くなっても、人間独自の幸福感や充足感を与えてくれる要素だと信じています。
ただ、現代社会は「経済的価値の創出」こそが人間の存在意義と結びついている部分が大きい。そこがAIと競合する形になるなら、私たちは新しい社会契約を見つけなければならない。私自身も、具体策は分かりません。でも少なくとも、人類としてこの問題に真剣に向き合う必要があります。テクノロジーが猛スピードで発展している中で、「どう生きるか」を考える時間がほとんどないまま、場当たり的に対応してしまうのは非常にまずい。そうならないように、今から準備を始めるべきだと思います。
23:25 司会
ありがとうございました。では次の方。後ろの男性の方、どうぞ。
23:29 質問者
素晴らしいセッションありがとうございます。物理科学の領域ではAIがめざましい進歩を遂げるのは明らかだと思いますが、人文社会科学や政策設計など、より複雑で人間的要素が絡む分野ではどうでしょうか? また、最近デミス・ハサビス氏は「量子コンピュータの特性がなくても、現状のAIでかなりのことが可能」と示唆していますが、これについてどのようにお考えですか?
24:06 ダリオ
もしご質問の意図が「AIは社会科学的分野でも同様の進化をもたらすか?」だとすれば、私の見立てでは、物理科学ほどのスピードで進むわけではないが、ゆくゆくは社会科学や政策などでもAIが人間を上回る洞察を示す可能性があると思います。
社会科学ではデータが限られていたり、一度きりの特殊事例が多かったりするので、厳密な実験をしにくい。それでもAIはやがて人間と同等かそれ以上の直感や推論能力を得るでしょう。しかし、最後は依然として複雑系の不確実性が残ります。いくら超知能になっても、予測不能な要素は存在し続ける。それがどの程度かはわかりませんが、人間がいま手探りでやっている理論モデルよりはかなり優れたモデルをAIが構築するかもしれません。
量子コンピュータについては、私自身は現段階では「なくても大丈夫」という立場です。将来的に有用なアルゴリズムが見つかれば別ですが、いまのディープラーニングや強化学習のパラダイムを推し進めるだけでも相当なところまで行けると思います。
25:46 司会
ありがとうございます。次、中央あたりの女性の方。
25:50 質問者
ありがとうございます。私も医薬分野が大きく変わるという点は同意します。Amazonも自社の医薬サービスにAIを導入しようとしていますよね。そこに関連する質問です。今後は誰もがトップレベルの教育をAIから受けられるようになる可能性があります。すると、いわゆるハイレベルな大学(アイビーリーグ)に行く意義はどうなるのでしょうか? オンラインAI教育を受けるだけで、優れた起業家や専門家になれる時代が来ると思いますか?
26:22 ダリオ
教育は確かに大きな変革期を迎えると思います。AIがめざましい教育ツールとして活躍する可能性がある。しかし学習は本質的に社会的な行為でもあり、仲間や教師との対話が重要だと私は思います。ただ、大学という形態にこだわる必要がなくなるかもしれません。AIによる個別最適化された学習が進むなか、社会的学びの場としての大学がどう機能を維持するか、そこは未知数です。
人によっては大学に行かずにAIで学び、起業家として成功する人も増えるでしょう。これまでの「偏差値」や「学歴」が指標にならなくなる時代が来るかもしれません。
27:06 司会
他にも質問をたくさんいただきたいところですが、ダリオは次の予定もあり、そろそろ時間です。最後に2つ、私から短い質問を。
1つ目は、あなたは競合他社のリーダーよりもAIのリスクを早くから強調していた人物です。最近書かれた「Machines of Loving Grace」のエッセイでは、むしろAIの恩恵に焦点を当てていましたが、この1年でその態度に変化はありましたか?
27:41 ダリオ
そうですね、テクノロジーの進展が加速し、実際に起きそうだという確信が強まったので、リスクについてもポジティブな面についても、その「確実性」が高まったと感じます。以前から「巨大な恩恵があり得るが、同時にリスクもある」というスタンスでしたが、今はその両方の可能性がさらに大きくなった。ただ、私自身の「姿勢」という意味では変化がありました。以前はリスクを強調することが多かったのですが、今は「リスクを管理しつつも、AIがもたらす壮大な可能性を人々に示すことも必要だ」と強く感じるようになりました。
私は本当に、AIがもたらす未来が素晴らしいものになり得ると思っています。それを実現するためには、リスクを恐れるだけではなく、どうやって社会として前向きに取り組むかを考えなければならない。なので、事実認識としては変わりませんが、気持ちの面では「より建設的に希望を訴えること」が重要だと思うようになりました。
28:46 司会
最後の質問です。いま語ってくれた未来は、もう「不可避」なのでしょうか。何かが起きて、これが止まる可能性はありますか?
28:57 ダリオ
私が過去からずっと言ってきたのは、「95%くらいの確率でそうなるが、5%くらいは全く別のシナリオがあるかもしれない」ということです。技術が想定とは違う方向に進む可能性もありますし、アルゴリズム的に思わぬ壁にぶつかるかもしれません。全体としては極めて高い確率で2026年~2027年に強力なAIが登場すると見ていますが、それでも不確定要素は残ります。
もうひとつ考えられるのは地政学的危機です。AIを動かすチップの多くが、あまり安定していない地域(台湾など)で生産されている現実があります。何か大きな軍事・政治的な衝突が起きれば、この進歩が何年か遅れる可能性は充分あるでしょう。
29:58 司会
確かに、地政学とAIの掛け合わせは誰もが恐れているところです。今は「完璧な嵐(perfect storm)」とも言われます。歴史上類を見ない速さで技術が進化する一方で、世界秩序も大きく揺らいでいる。
30:14 ダリオ
まさにそれが私の懸念材料です。だからこそ、なんとか悲観的なシナリオを回避して、ポジティブな方向に進むようにみんなで努力しなければなりません。
30:25 司会
ありがとうございます。これでダリオとのセッションを終わりにしたいと思います。皆さま、ダリオ・アモデイ氏に大きな拍手をお願いします。
(拍手)