# Claude Mythos の発表以来、騒がれている問題点を将来的なスパンも含めて解説して。つかそもそも騒がれているのかどうかと、騒がれているのならその理由も解説して。 結論から言うと、**騒がれています**。 ただし、騒がれ方は「一般消費者がChatGPT新機能で盛り上がる」タイプではなく、**AI安全性・サイバーセキュリティ・政府規制・大企業アクセス格差**の文脈でかなり強く騒がれている、という感じです。 ## まず Claude Mythos とは何か **Claude Mythos Preview** は、Anthropic が2026年4月7日に Project Glasswing と合わせて発表した、Claude系の新しいフロンティアモデルです。Anthropic自身は「これまでで最も高性能なモデル」で、特にコーディングやエージェント的タスクに強く、その結果としてサイバーセキュリティ能力も非常に高い、と説明しています。一般公開ではなく、Project Glasswing参加組織と追加の重要インフラ系組織に限定提供されています。([Anthropic][1]) Project Glasswing の参加組織には、AWS、Apple、Broadcom、Cisco、CrowdStrike、Google、JPMorganChase、Linux Foundation、Microsoft、NVIDIA、Palo Alto Networks などが含まれ、Anthropicは最大1億ドル相当の利用クレジットと、オープンソースセキュリティ組織への400万ドル寄付を掲げています。([Anthropic][1]) ## なぜ騒がれているのか 一番大きい理由は、Anthropicが **「Mythosはゼロデイ脆弱性を発見し、場合によっては悪用コードまで作れる」** とかなり強い表現で発表したからです。 AnthropicのRed Team記事では、Mythos Previewが主要OSや主要Webブラウザに存在するゼロデイ脆弱性を発見・悪用できたとされ、OpenBSDの27年前のバグ、FreeBSD NFSサーバーのリモートコード実行、ブラウザのサンドボックス脱出などが例として挙げられています。([Red Anthropic][2]) さらに、Anthropicは「発見した脆弱性の99%以上はまだパッチ未適用なので詳細を開示できない」と説明しています。ここが不気味さを増幅しています。つまり、外から検証できる部分が限られる一方で、主張のスケールは非常に大きい。結果として「本当にそんなに危険なのか」「安全対策なのかマーケティングなのか」という議論が起きています。([Red Anthropic][2]) ## 騒がれている問題点 | 問題点 | 内容 | 深刻度 | | ------- | ------------------------------ | --: | | 悪用リスク | 高度な脆弱性発見・ exploit 作成が自動化される可能性 | 高 | | アクセス格差 | 大企業・一部組織だけが使える | 中〜高 | | 検証不能性 | 未修正脆弱性が多く、外部検証しにくい | 高 | | 宣伝・誇張疑惑 | 「危険すぎるAI」という語りが安全ブランド戦略にも見える | 中 | | 防御側の負荷増 | 大量の脆弱性報告でOSS保守者が疲弊する可能性 | 高 | | 規制・安全保障 | 政府・金融・重要インフラが警戒し始めている | 高 | | モデル封じ込め | 限定公開でも漏えい・迂回アクセスの懸念がある | 中〜高 | ## 1. 一番の問題:攻撃の自動化 最大の論点は、**AIが脆弱性を見つけるだけでなく、実際に使える攻撃手順まで組み立てられるようになるのではないか**という点です。 Anthropicは、Mythos Previewが未発見の脆弱性を探し、再現し、場合によっては exploit を作る能力を示したとしています。特に問題なのは、専門家でなくても、モデルに探索を任せることで高度な攻撃に近づける可能性がある、という部分です。([Red Anthropic][2]) これはWeb制作・運用目線でも地味に怖いです。 WordPress、CMS、古いプラグイン、社内管理画面、古いLP資産、放置されたnpm依存などが、今までより高速に洗われる可能性がある。いわば「攻撃者側の検品能力」が上がるわけです。 ## 2. 防御にも使えるが、短期的には攻防で荒れる可能性 Anthropic自身は、長期的には防御側が有利になると見ています。高性能AIで脆弱性を見つけ、パッチを書き、コードレビューを強化できるからです。ただし、同じ記事で、移行期は混乱しうる、短期的には攻撃側が有利になる可能性がある、とも述べています。([Red Anthropic][2]) ここが重要です。 **長期:守る側が強くなる可能性** **短期:攻める側も急に強くなる可能性** この非対称な移行期が、いま騒がれている本質です。 ## 3. 「大企業だけが先に守りを固められちゃう」問題 Project Glasswingは防御目的の取り組みですが、参加できるのは限られた大企業・重要インフラ組織です。Anthropicは40以上の追加組織にもアクセスを広げるとしていますが、一般開発者、中小企業、個人のOSSメンテナーが同じ恩恵をすぐ受けられるわけではありません。([Anthropic][1]) つまり、こんな格差が起きます。 | 立場 | Mythos級AIへのアクセス | 影響 | | ---------- | ---------------- | -------------- | | 巨大IT企業 | ある | 先に脆弱性を見つけて直せる | | 重要インフラ | 一部ある | 防御体制を前倒しできる | | OSSメンテナー | 限定的 | 報告だけ大量に来る可能性 | | 中小企業 | ほぼない | 置いていかれる可能性 | | 悪意ある国家・攻撃者 | 同等モデルを持つ可能性は否定不可 | 防御側より早く悪用する可能性 | これ、「安全のために限定公開」は筋が通っています。 でも同時に、**防御能力の富裕層化**みたいな問題も出ます。セキュリティ版の“持てる者と持たざる者”です。 ## 4. 「本当にそんなにすごいのか?」問題 一方で、懐疑的な見方もあります。Tom’s Hardwareは、Anthropicの「数千件の重大脆弱性」という主張に対して、実際に手動レビューされたのは198件であり、主張の多くはまだ外部検証しづらい、と批判的に整理しています。また、Anthropicが「危険なAIを責任ある形で扱う会社」というブランドを作るために、恐怖をマーケティングに使っているのではないか、という見方も紹介されています。([Tom's Hardware][3]) ここは慎重に見たほうが良く、 **Mythosが強力なのはかなり確からしい。** ただし、**「インターネットを壊す超知性」みたいな煽りは割り引くべき**です。 Anthropicの公式資料は一次情報として重要ですが、同時に企業発表でもあります。未修正脆弱性の詳細を出せない以上、外部から完全検証できない部分が残ります。ここは「確定情報」と「Anthropicの主張」を分けて読む必要があります。 ## 5. 封じ込めできるのか問題 Mythosは一般公開されていませんが、限定環境でも完全に閉じ込められるのか、という懸念があります。Live Scienceは、Project Glasswingの限定提供がすでに圧力を受けており、第三者環境経由で不正アクセスがあったとの報道をAnthropicが調査している、と報じています。([Live Science][4]) ここはかなり象徴的です。 「危険だから限定公開します」と言っても、モデル、API、クラウド、提携企業、開発環境、ログ、権限設定、請負先、評価環境など、漏えいポイントは山ほどあります。 AIモデルそのものだけでなく、**AIを囲う運用インフラ全体が攻撃対象**になります。 ## 将来的なスパンで見ると ### 2026年〜2027年:セキュリティ業界の警戒期 この時期は、まず大企業・重要インフラ・政府が反応する段階です。 AIによる脆弱性探索、パッチ生成、コードレビューがセキュリティ業務に組み込まれ始める一方、攻撃者も同じ方向へ進む可能性があります。 Web実務では、古いCMS、古いプラグイン、放置サーバー、更新されていないライブラリが今まで以上に危険になります。AIが“根気よく読む攻撃者”になるからです。 ### 2027年〜2029年:防御AIの標準化 セキュリティ企業、クラウド、GitHub系のコードホスティング、CI/CD、SAST/DAST、依存関係スキャンに、Mythos級のモデル能力が組み込まれていく可能性があります。 この段階で重要になるのは、 * 自動脆弱性診断 * 自動パッチ提案 * 依存ライブラリ更新支援 * exploitability、つまり実際に悪用可能かの判定 * SBOM管理 * セキュリティレビューの自動化 です。 ただし、AIが大量に「脆弱性かもしれないもの」を出すと、保守者が疲弊します。 本当に必要なのは発見数ではなく、**優先順位づけと修正可能なパッチ**です。 ### 2030年前後:攻防の前提が変わる 長期的には、AIによる脆弱性発見は「特別なニュース」ではなく、開発工程に組み込まれるはずです。 そのときは、今のような「年1回の診断」「リリース前だけチェック」では足りなくなります。 常時スキャン、常時修正、常時依存更新。 Web運用で言えば、SEOの定期クロールやGA4の定点観測みたいに、**セキュリティも常時観測型になる**と思います。 ## 実務目線で何が変わるか Webディレクター視点なら、以下がかなり重要です。 | 項目 | これから重要になること | | ----- | ----------------------------------- | | CMS | WordPress等の本体・プラグイン更新を放置しない | | LP資産 | 古いJS、古いフォーム、古い計測タグを棚卸し | | npm依存 | lockfile、Snyk/GitHub Dependabot等の運用 | | フォーム | 入力検証、CSRF、認証、権限設定の見直し | | 管理画面 | IP制限、MFA、不要アカウント削除 | | サーバー | WAF、ログ監視、パッチ運用 | | 制作契約 | 納品後の保守責任範囲を明文化 | | OSS利用 | 「無料で使う」だけでなく更新責任を持つ | Mythos級のAIが出てくると、攻撃者は「人間が見落とした古い穴」を探しやすくなります。 古いLPの共有アセット、放置された問い合わせフォーム、昔のjQueryプラグインみたいな“誰も責任を持っていない残骸”がリスクになりやすいです。 ## 総評 | 論点 | 評価 | | ----------------- | -------------------------------- | | 騒がれている? | **騒がれている**。特にAI安全性・サイバーセキュリティ界隈 | | 騒ぎは妥当か | **半分妥当、半分は煽り気味** | | 技術的な脅威 | **かなり現実的** | | 今すぐ一般人がパニックになっちゃうか | **まだそこまでじゃぁない** | | 企業・開発者が対策すべきか | **はい、かなりすべき** | | Mythosだけが問題か | **いいえ。同等モデルが他社・国家・攻撃者側に出るかも知れないことが問題の本質** | | 将来の方向 | **AIによる常時防御と常時攻撃の時代へ進む可能性が高い** | ## 最終まとめ Claude Mythos が騒がれている理由は、単に「強いAIが出た」からではありません。 **AIが、ソフトウェアの脆弱性を発見するだけでなく、 攻撃に使える形まで組み立てられる段階に近づいたと見られているからです。** しかも、その能力が一般公開されず、大企業・重要インフラ向けに限定提供されているため、アクセス格差や統制の問題も同時に出ています。 ただし、Anthropicの主張には未検証部分も多く、**「危険すぎるAI」という演出がマーケティングとして機能している面もあります。** ここは冷静に見るべきです。 つまり現時点でのClaude Mythosの本当の意味は、 > **AIが“便利なコード補助”から、“攻防両方に使えるセキュリティ自動化装置”へ進んだことを示す事件** です。 ちなみに、これは19世紀の顕微鏡に少し似ています。顕微鏡ができたことで病原体を見つけやすくなり、医学は進歩しました。でも同時に「見えなかった世界」が急に見えるようになって、人間社会の衛生観念も変わりました。Mythos級AIも、ソフトウェアの中に眠っていた“見えない傷”を大量に見つける顕微鏡になる可能性があります。問題は、その顕微鏡を医者だけが持つのか、泥棒も持つのか、というところです。 [1]: https://www.anthropic.com/project/glasswing "Project Glasswing \ Anthropic" [2]: https://red.anthropic.com/2026/mythos-preview "Claude Mythos Preview \ red.anthropic.com" [3]: https://www.tomshardware.com/tech-industry/artificial-intelligence/anthropics-claude-mythos-isnt-a-sentient-super-hacker-its-a-sales-pitch-claims-of-thousands-of-severe-zero-days-rely-on-just-198-manual-reviews "Anthropic's Claude Mythos isn't a sentient super-hacker, it's a sales pitch — claims of 'thousands' of severe zero-days rely on just 198 manual reviews | Tom's Hardware" [4]: https://www.livescience.com/technology/artificial-intelligence/claude-mythos-explained-is-anthropics-most-powerful-ai-model-really-too-dangerous-to-release-to-the-public "Claude Mythos explained: Is Anthropic's most powerful AI model really too dangerous to release to the public? | Live Science"