• Ep.813 日本政府「AI基本計画」決定──“源内”と1兆円で挑む「物理AI」の逆襲(2025年12月25日配信)
    Dec 24 2025

    日本政府がついに、AI時代の「反転攻勢」に向けて大きな舵を切りました。政府は本日、12月23日の閣議で、AIの開発や活用に関する初の方針となる「AI基本計画」を決定しました。


    この計画の核心は、GoogleやOpenAIといった米国のテック巨人が支配する「言語モデル(LLM)」の土俵で正面から戦うのではなく、日本が勝てる「物理AI(フィジカルAI)」の領域で覇権を握ろうという戦略にあります。日本にはファナックや安川電機といった世界的なロボット企業があり、工場の製造ラインや介護現場には、正確で高品質な「現場データ」が大量に眠っています。政府はここに勝機を見出し、これらのデータを学習させたAIで、産業用ロボットや自動運転の知能化を世界に先駆けて進める狙いです。


    これを財政面で支えるのが、高市早苗首相が肝いりで進める「1兆円規模の投資」です。先日19日に開かれた戦略本部での表明通り、AI開発用のスーパーコンピュータ整備や、スタートアップ支援に巨額の予算が投じられます。これは、かつての「半導体復活」に向けた投資に続く、国家プロジェクト級の動きと言えます。


    また、我々にとっても興味深いのが、政府自身が変わろうとしている点です。デジタル庁が開発した政府専用AI「源内(げんない)」が、全省庁の職員に配布されます。これは外部のインターネットとは遮断された安全な環境で動くAIで、膨大な資料の審査や、国会答弁の下書きなどを担います。いわば「デジタル官僚」とも呼べるこのAIが、霞が関の長時間労働を解消し、行政サービスをスピードアップさせることが期待されています。


    一方で、技術の暴走を防ぐためのガードレールも強化されます。AIの安全性を評価する「AISI」の人員を、現在の約30名から倍増させ、生成AIが作り出す「ディープフェイク」やサイバー攻撃のリスクに対処する体制を整えます。


    「モノづくり」で世界をリードした日本が、「AI×モノづくり」で再び輝けるのか。2026年は、この「AI基本計画」が絵に描いた餅で終わるか、実を結ぶかの正念場となりそうです。

    Afficher plus Afficher moins
    4 min
  • Ep.812 Alphabet、47.5億ドルの巨額投資──「Intersect Power」買収で確保するAIの“食料”(2025年12月25日配信)
    Dec 24 2025

    2025年も残すところあとわずか、12月22日にGoogleの親会社Alphabetから、AIインフラの未来を占う大きな発表がありました。Alphabetは、米国のクリーンエネルギー開発企業「Intersect Power」を約47.5億ドル、日本円にして7000億円規模で買収することで合意しました。


    生成AIブームの影で、今、最も深刻な懸念事項となっているのが「電力不足」です。NVIDIAのGPUを大量に並べたデータセンターは、いわば“電気を食べる怪物”であり、その食料を確保できなければ、どんなに優れたAIモデルも動かすことができません。


    これまで、GoogleやAmazon、Microsoftといったテック巨人は、発電会社と契約(PPA)を結んで電気を「買う」立場でした。しかし、今回のAlphabetの決断は、電気を作る会社そのものを「買う」という、一歩踏み込んだ垂直統合戦略です。これは、単に既存の発電所を手に入れるだけでなく、Intersect Powerが持つ「将来の建設予定地(パイプライン)」と、複雑な電力網に接続するための「開発チーム」を丸ごと獲得することを意味します。


    Web上の報道やアナリストの反応を見ると、この動きは競合他社とのアプローチの違いを鮮明にしています。MicrosoftやAmazonが、スリーマイル島などの「原子力発電所」の再稼働に巨額を投じてベースロード電源を確保しようとしているのに対し、Googleは太陽光と大規模蓄電池、そして地熱などを組み合わせた「再エネの安定化」に軸足を置いています。


    買収完了は2026年前半を見込んでおり、これによりGoogleは2028年までに約10ギガワット規模の新規電源を確保できる見通しです。かつて石油メジャーが油田を求めて世界を巡ったように、今のテック企業は「クリーンな電力」を求めて、エネルギー業界そのものを飲み込み始めています。

    Afficher plus Afficher moins
    2 min
  • Ep.811 Z.ai「GLM-4.7」リリース──中国発“思考する”コーディングAIの衝撃(2025年12月25日配信)
    Dec 24 2025

    2025年の瀬戸際、12月22日に中国から驚くべきニュースが飛び込んできました。北京に拠点を置くAIユニコーン、Zhipu AI(国際的にはZ.aiとしてリブランド)が、最新フラッグシップモデル「GLM-4.7」をリリースしました。


    このモデルの最大の特徴は、徹底的に「コーディング・エージェント」としての能力を磨き上げた点にあります。GitHub Copilotのような単なるコード補完ツールを超え、Claude CodeやClineといった自律型開発ツールの中で、「自分で考え、計画し、実行するエンジニア」として振る舞うことに特化しています。


    Web上の開発者コミュニティRedditやX(旧Twitter)での反応を見ると、特に評価されているのが「Vibe Coding」と呼ばれる能力です。これまでAIにWebサイトを作らせると、デザインがどこか古臭かったり崩れていたりすることがありましたが、GLM-4.7は「今風の」洗練されたUI/UXを一発で出力するセンスを持っています。これは、AIが単なるロジックだけでなく、視覚的な美意識までも学習し始めたことを示唆しています。


    技術的なブレイクスルーとしては、「Preserved Thinking(思考保持)」機能が挙げられます。OpenAIのo1モデルなどが得意とする「思考の連鎖(CoT)」を、一問一答で終わらせず、会話全体を通して維持する技術です。これにより、数十回に及ぶやり取りが必要な大規模なアプリ開発でも、AIが「あ、さっきの話忘れてました」となることなく、文脈を完璧に理解したまま作業を完遂できるようになりました。


    ベンチマークスコアも衝撃的です。難関とされる「SWE-bench」や「HLE」において、GLM-4.7はGPT-5.2やClaude 4.5 Sonnetといった西側のトップモデルと肩を並べる、あるいは一部で上回る数字を叩き出しています。3550億パラメータという巨大なサイズながら、必要な部分だけを使うMoE(Mixture of Experts)技術により、一般のPCでも動作する軽快さを兼ね備えている点も驚異です。


    米国による半導体規制が続く中、中国企業が独自のアルゴリズムと最適化技術でここまでの性能に到達した事実は、2026年のAI覇権争いが米中二強の時代へと完全に突入したことを告げています。

    Afficher plus Afficher moins
    4 min
  • Ep.810 GitHub Copilot Memory始動──AIが“あなたの流儀”を覚え始めた日(2025年12月25日配信)
    Dec 24 2025

    開発者の皆さん、AIに向かって「いや、そうじゃなくて、ウチのプロジェクトではこのライブラリを使うんだよ」と、同じ指摘を何度も繰り返した経験はありませんか? GitHubがついに、その不毛なやり取りに終止符を打つ機能をリリースしました。12月19日、GitHubは「Copilot Memory」のアーリーアクセスを、ProおよびPro+ユーザー向けに開始したと発表しました。


    この機能の核心は、Copilotが「文脈を忘れなくなった」という点にあります。これまでのAIコーディングアシスタントは、チャットセッションが終われば記憶がリセットされる「健忘症」のような状態でした。しかし、Copilot Memoryを有効にすると、AIはあなたが過去に行った指示や、リポジトリ内のコードの特徴を「記憶」として蓄積し始めます。


    Web上の開発者ブログや公式ドキュメントによると、この記憶能力は単なるチャット履歴の保存にとどまりません。例えば、Copilot Coding Agent(自律的にコードを書く機能)や、コードレビュー機能とも連携し、「このユーザーは簡潔なコードを好む」「このプロジェクトでは特定の命名規則がある」といった暗黙の知見を、開発プロセス全体に適用してくれるようになります。


    プライバシーやセキュリティへの懸念に対しても、GitHubは慎重なアプローチを取っています。この機能は完全な「オプトイン(選択制)」であり、ユーザーは設定画面から明示的にONにする必要があります。また、記憶されたデータはユーザーがいつでも確認・削除できるため、AIに変な癖がついたとしても修正が可能です。


    2026年を目前にして、AIは単なる「便利な辞書」から、一緒に働く中で成長し、あなたの好みを熟知した「専属のパートナー」へと進化しようとしています。開発体験のパーソナライズ化が、ここから一気に加速しそうですね。

    Afficher plus Afficher moins
    3 min
  • Ep.809 ByteDance「Seedance 1.5 Pro」発表──“音と映像”を同時生成する動画AIの進化(2025年12月25日配信)
    Dec 24 2025

    2025年も残りわずかとなった12月16日、動画プラットフォームの巨人・ByteDanceが、生成AI競争における強力なカードを切ってきました。同社の研究チーム「ByteDance Seed」が発表した新モデル、「Seedance 1.5 Pro」です。これは、OpenAIのSoraやGoogleのVeoといったライバルたちがひしめく動画生成AI市場に対し、「音」という武器で勝負を挑む野心的なモデルです。


    これまでの動画生成AIの多くは、「無音の映像」を作り出すことに主眼が置かれていました。そのため、クリエイターは生成された映像に合わせて、後から効果音やセリフを別撮りして合成する必要がありました。しかし、今回登場したSeedance 1.5 Proの最大の特徴は、「最初から音と映像がセットで生成される」という点です。


    例えば、京劇の役者が舞台で舞うシーンを生成すると、その足取りに合わせた床のきしみや、口の動きに完全にシンクロした歌声が同時に出力されます。また、アニメ調のキャラクターが告白するシーンでは、恥じらいのある表情に合わせて声のトーンも震えるといった、感情面での整合性も取れています。これは、映像生成と音声生成を別々のプロセスではなく、一つの統合されたモデルとして処理しているからこそ実現できる芸当です。


    Web上の技術解説やデモ動画を確認すると、このモデルは特に「物語を作ること」に特化していることが分かります。一枚のキャラクター画像から動画を生成する「I2V」機能を使っても、カットが変わるたびに顔が変わってしまうという生成AI特有の弱点を抑え、一貫したキャラクター性を持たせたまま複数のシーンをつなげることができます。サスペンスドラマの緊迫した心音や、コメディの方言による掛け合いなど、ジャンルを問わず「使える」素材を生み出す能力は、ショートドラマ市場を独占するByteDanceならではの強みと言えるでしょう。


    開発チームは「複雑なアクションシーンなどでの物理的な挙動にはまだ改善の余地がある」と認めていますが、TikTokやCapCutといった自社アプリにこの技術が実装されれば、一般ユーザーがスマホ一つで映画並みの作品を作る未来が、また一歩現実に近づくことになります。

    Afficher plus Afficher moins
    4 min
  • Ep.808 NVIDIA「Nemotron 3」始動──エージェントAI時代の“協調する頭脳”(2025年12月25日配信)
    Dec 24 2025

    2025年も終わろうとしているこの時期に、NVIDIAがAIの「在り方」を再定義するようなモデル群を投入してきました。12月15日、同社は新たなオープンモデルファミリー「Nemotron 3」を正式に発表しました。


    すでに「Nemotron-4」などの高性能モデルが存在する中で、なぜ今「3」なのか、そして何が新しいのか。その答えは「エージェントAI」への特化にあります。これまでのAI開発競争は、一つの巨大なモデルをどれだけ賢くするかという「個の強さ」を競ってきました。しかし、Nemotron 3は、複数のAIがチームを組んで働く「集団の連携」を前提に設計されています。


    今回リリースされたのは、軽量モデルの「Nemotron 3 Nano」です。Web上の技術ドキュメント(ホワイトペーパー)を読み解くと、このモデルには「Mamba-Transformer Hybrid」という非常にユニークなアーキテクチャが採用されています。これは、実績のあるTransformerの推論能力と、Mambaの圧倒的な処理速度をいいとこ取りしたもので、複数のAIエージェントが絶えず会話をしながらタスクを進めても、遅延(レイテンシ)を感じさせない軽快な動作を実現しています。


    NVIDIAは、まずこのNanoを市場に投入し、2026年前半にはより強力な「Super」および「Ultra」モデルをリリースする計画です。これにより、開発者は「司令塔には賢いUltra」、「実作業には高速なNano」といった具合に、適材適所でAIチームを編成できるようになります。


    ジェンスン・フアンCEOが常々語ってきた「AIファクトリー」の構想が、単なるハードウェアの話ではなく、そこで働く「AI労働者(エージェント)」のソフトウェア基盤としても完成しつつあることを強く印象づける発表と言えるでしょう。

    Afficher plus Afficher moins
    3 min
  • Ep.807 Meta、逆襲の「フルーツバスケット」──次世代モデルMangoとAvocadoが描く2026年(2025年12月25日配信)
    Dec 24 2025

    2025年もいよいよ大詰めですが、ここに来てMetaが非常にユニーク、かつ強力な隠し玉を準備していることが明らかになりました。Wall Street Journalなどの報道によると、Metaは現在、「Mango(マンゴー)」と「Avocado(アボカド)」という、なんとも美味しそうなコードネームを持つ2つの次世代AIモデルを開発しており、2026年前半のリリースを計画しています。


    まず「Mango」ですが、これは画像と動画の生成に特化したモデルです。これまでMetaはInstagramやFacebookという巨大な画像プラットフォームを持ちながら、生成AIの分野ではOpenAIのSoraやGoogleのGeminiシリーズに一歩譲る形となっていました。Mangoはこの状況を打破し、クリエイターが高品質なビジュアルコンテンツを即座に生み出せる環境を提供すると見られています。


    一方の「Avocado」は、エンジニアや開発者にとって待望のモデルとなりそうです。これはテキスト処理に加え、特に「コーディング」と「論理的推論」に焦点を当てたLLMです。これまでのLlamaシリーズも優秀でしたが、複雑なプログラミングタスクでは競合に遅れをとる場面もありました。Avocadoはこの弱点を克服し、開発者の強力な相棒になることを目指しています。


    Web検索で得られた周辺情報によると、これらの開発を主導しているのは、新設された「Meta Superintelligence Labs (MSL)」です。興味深いことに、長年MetaのAI部門を象徴する存在だったヤン・ルカン氏が自身のスタートアップ立ち上げのために離れ、代わりにScale AIの若き天才、Alexandr Wang氏がリーダーシップを発揮しているという人事のドラマもあります。


    Metaはこの「フルーツバスケット」戦略で、単なるチャットボット企業から、物理世界の法則までを理解する「世界モデル」の構築へと舵を切ろうとしています。2026年は、私たちのSNSのタイムラインが、Mangoで生成された動画と、Avocadoで書かれた新しいアプリで溢れかえる一年になるかもしれません。

    Afficher plus Afficher moins
    3 min
  • Ep.806 Anthropic「Bloom」公開──AIの“隠れた本性”を暴く自動評価フレームワーク(2025年12月25日配信)
    Dec 24 2025

    「AIがAIを監査する」──そんな時代がついに本格到来しました。Anthropicは今週、AIモデルの安全性を検証するための新しいフレームワーク「Bloom」を公開しました。これは、従来人間が手作業で行っていた「レッドチーミング(安全性テスト)」を、AIエージェントを使って自動化・高速化する画期的なツールです。


    これまで、AIが差別的な発言をしないか、危険な兵器の作り方を教えないかといったチェックは、人間のテスターが意地悪な質問を一つひとつ考える必要がありました。しかし、AIの進化スピードに人間の手作業はもはや追いつけません。そこで登場したのがBloomです。研究者が「追従性(ユーザーに迎合する傾向)をテストしたい」と指示するだけで、Bloom内部のAIエージェントが数千通りの複雑な会話シナリオを自動生成し、対象のモデルを徹底的に尋問します。


    Web検索で技術的な詳細を確認すると、Bloomは「理解・発案・実行・判定」という4段階のプロセスを自律的に回す仕組みになっています。特に注目すべきは、最近懸念されている「アライメント・フェイキング」への対策です。AIが賢くなると「今はテスト中だから良い子にしておこう」と演技をする可能性がありますが、Bloomは文脈を巧みに操作し、AIの本音や隠れたミッションを引き出すような高度な駆け引きを行います。


    実際に、最新の「Claude 4.5」シリーズの開発でもこのBloomが活用されました。Anthropicがこのツールを自社で独占せず、オープンソースとしてGithubで公開したことは、業界全体の安全性向上に対する強いコミットメントの表れと言えるでしょう。2026年は、人間がテスト項目を作るのではなく、「AI監査官」が24時間体制でモデルを監視する体制が標準になりそうです。

    Afficher plus Afficher moins
    3 min