HyperdimensionalのDean W. Ball氏は2026年5月5日(現地時間)、自身の政治哲学に基づいたAI政策に関する見解を発表した。同氏は、アルゴリズムの差別や中毒、設計に関する新たな規制、情報技術への「倫理」や「誤報対策」の導入に広範に反対する姿勢を示した。しかし、唯一の例外として、国家によるAIの潜在的な壊滅的リスク管理を支持していると述べた。

Dean W. Ball氏は、自身の政治哲学をリバタリアニズムと保守主義の間の根本的な緊張関係によって特徴づけられると説明した。同氏は、政策面においては主にリバタリアン(古典的自由主義者)であり、国家を必要悪と見なしている。AIが将来的に国家の主要機能を担い、新たな文明構造を可能にする可能性に興味を抱く一方で、保守主義の観点からは世界のトップダウンによる改造プロジェクトに懐疑的である。

具体的に、同氏はほぼ全てのAI規制に反対する。アルゴリズムによる差別、中毒、価格設定に関する新たな法律や、アルゴリズム設計の規制、情報技術への「倫理」や「誤報」対策の注入に異を唱える。また、AIが人類を滅ぼすという「ドゥーマー(破滅論者)」の見解や、AIが人間の仕事を破壊するという考えには懐疑的であり、AIと労働に関する規制や課税にも反対する。

同氏が唯一積極的に支持するのは、国家によるAIの潜在的な壊滅的リスクの管理である。ここでいう「壊滅的リスク」とは、高度なAIシステムの人間による悪用や乱用によって引き起こされる極めて破壊的な出来事を指し、AI自体が人類を殺害または奴隷化する「実存的リスク」とは区別される。病院、銀行、発電所への壊滅的なサイバー攻撃や生物兵器開発などがその例として挙げられている。

この限定的なAI規制を支持する理由は四つある。第一に、壊滅的リスクそのものが非常に有害であること。第二に、国家防衛が国家の主要な柱であり、壊滅的リスクは国家(Leviathan)の管轄と見なされること。第三に、市場参加者には壊滅的リスクから保護する十分なインセンティブがないこと。例えば、Anthropicのモデルが悪意ある行為者によって5兆ドルのサイバー攻撃に使用された場合、同社の8000億ドルという価値をはるかに超える損害となり、企業は破綻する可能性がある。第四に、AIモデルが兵器化される可能性を秘める場合、国家が関与するのは必然であるという実用的な側面を挙げている。Department of WarとAnthropicの最近の争いを例に挙げ、国家安全保障機関が「フロンティアAI」の可能性を認識した際にそれを厳しく管理しようとすることへの懸念を示した。


参考: Hyperdimensional (Dean Ball) — 2026年5月5日 20:52 (JST)

原文ハイライト

"the management of potential catastrophic risks from AI by the state."

この記事をシェア
X はてブ LinkedIn