Ep.948 「良心」か「国防」か──Anthropicと米国防総省、決裂の危機(2026年2月19日配信)
Impossible d'ajouter des articles
Échec de l’élimination de la liste d'envies.
Impossible de suivre le podcast
Impossible de ne plus suivre le podcast
-
Lu par :
-
De :
À propos de ce contenu audio
「AIは兵器になり得るのか、それとも平和のための道具であるべきか」。そんな根源的な問いが、今まさにシリコンバレーとワシントンD.C.の間で大きな摩擦を生んでいます。
2026年2月14日、Axiosは、米国防総省(ペンタゴン)が、AI企業Anthropicとの契約打ち切りを検討していると報じました。その理由は、両者の決定的な「価値観の不一致」にあります。
国防総省は現在、OpenAI、Google、xAI、そしてAnthropicの主要4社に対し、AIモデルを「あらゆる合法的な目的」で使用できるよう求めています。これには、兵器開発、情報収集、そして戦場での直接的な作戦立案も含まれます。関係者によると、他社がこの要求に対して柔軟な姿勢、あるいは交渉の余地を見せているのに対し、Anthropicだけが「完全自律型兵器」や「大規模監視」への利用を禁じる自社のポリシーを頑として譲らず、数ヶ月にわたって交渉が平行線をたどっているといいます。
この対立に油を注いだのが、2026年2月13日のウォール・ストリート・ジャーナルによるスクープです。同紙は、1月に行われたベネズエラのマドゥロ大統領拘束作戦において、米軍がAnthropicのAI「Claude」を使用したと報じました。これは、Palantirというデータ分析企業が提供するシステムを経由して行われたとされていますが、Anthropic側はこの報道に対し「特定の作戦での使用について協議した事実はない」と困惑を見せています。
Anthropicにとって、自社のAIが人を傷つける作戦に使われることは、創業の理念を揺るがす事態です。一方で国防総省からすれば、AIが「これは倫理的に問題があるため回答できません」と戦場で命令を拒否することは、兵士の命に関わるリスクとなります。
かつてGoogleの社員が軍事利用に反対して立ち上がった「Project Maven」の騒動から数年。今や多くのテック企業が国防への協力を「不可避な現実」として受け入れる中、Anthropicが示す抵抗は、AIの倫理を守ろうとする最後の砦なのか、それとも時代の変化に取り残された理想主義なのか。2026年、AIと戦争の関係は、引き返せない地点を越えようとしています。
Vous êtes membre Amazon Prime ?
Bénéficiez automatiquement de 2 livres audio offerts.Bonne écoute !