Mythos, 200 miliardi e CAISI – la settimana che ridisegna il potere AI

Mag 12, 2026

Tre eventi delle ultime due settimane raccontano una storia unica: Anthropic ha rilasciato Claude Mythos, un modello capace di trovare e sfruttare vulnerabilità software in autonomia; ha firmato un impegno di spesa da 200 miliardi di dollari con Google Cloud (TPU + Broadcom) per i prossimi cinque anni; il governo USA, tramite il neonato CAISI, ha iniziato a testare i modelli di frontiera PRIMA del rilascio pubblico. Nel frattempo, sul mercato enterprise, Anthropic cattura il 73% della spesa AI dei nuovi acquirenti business. Non è hype: è una ridistribuzione del potere lungo tre assi — capacità offensiva, infrastruttura compute, governance — che cambia come si costruisce, si vende e si regola l'AI.

Mythos: cos'è davvero (e perché fa paura)

Mythos: cos'è davvero (e perché fa paura)

Mythos è il nome interno del modello rilasciato da Anthropic nel quadro di Project Glasswing. Annunciato a fine aprile, è il primo modello "offensive-security capable" pubblicamente documentato: non si limita a identificare vulnerabilità in software complesso, le sfrutta in autonomia, producendo exploit funzionanti.

I numeri che fanno notizia:

La parte tecnica che vale la pena capire: Mythos è un modello agentico, non un classificatore. Combina reasoning a catena lunga (long-horizon planning), tool-use (esecuzione codice in sandbox, fuzzing, debugger, decompilatori), e self-verification (rilancia varianti, verifica crash, scrive POC). Architetturalmente è un'estensione della famiglia Claude — non un modello dedicato — addestrato con reinforcement learning su scenari CTF e bug bounty curati internamente.

Differenza chiave rispetto a "AI per security" pre-2025: i modelli precedenti aiutavano il pentester umano (suggerivano payload, spiegavano CVE). Mythos chiude il loop: prende un binario sconosciuto, lo analizza, scrive l'exploit, conferma il crash. End-to-end, senza supervisione fine-grained.

Perché Anthropic l'ha fatto? Argomento ufficiale: "defensive asymmetry". L'idea è che dare a difensori (red team interni, enterprise security, agenzie governative) uno strumento offensivo automatizzato accorci il ciclo patch e renda lo stack più resiliente prima che un attaccante state-level sviluppi capacità analoghe. Critica diffusa: l'asimmetria funziona solo se l'accesso è strettamente controllato — e qui entra in scena il governo USA.

  • Migliaia di zero-day individuati su tutti i principali sistemi operativi e tutti i principali browser web durante il preview.
  • Tempo medio di scoperta + exploit: minuti/ore (contro giorni o settimane per un team di security expert umano).
  • Operatori senza training formale in security hanno generato exploit completi e funzionanti usando il modello.
La frenata di Washington (e il dietrofront parziale)

La frenata di Washington (e il dietrofront parziale)

Quando Anthropic ha annunciato l'espansione dell'accesso da ~50 a 120 organizzazioni, l'amministrazione Trump ha obiettato su due fronti:

a) Rischio di misuse: 120 entità sono troppe per garantire chain-of-custody e auditing realistico su uno strumento offensivo.

b) Capacità di compute: Anthropic non avrebbe sufficiente compute per servire 120 clienti senza degradare la qualità del servizio fornito al governo stesso (la NSA è — secondo report verificati — già utilizzatrice).

Risultato del braccio di ferro: rollout pubblico bloccato, ma l'Office of Management and Budget della Casa Bianca ha contemporaneamente set-up protezioni regolatorie che consentono alle agenzie federali di USARE Mythos per scopi di cybersecurity difensiva. In pratica: il governo si è ritagliato l'accesso esclusivo prima che il mercato commerciale potesse normalizzare lo strumento.

Punto strutturale: per la prima volta dal rilascio di GPT-4, un modello commerciale viene de-facto nazionalizzato in privilegio d'uso. Implicazione per chi costruisce su API di frontier model: aspettarsi che capability gating diventi norma, non eccezione.

Cosa cambia per chi costruisce

Il deal da $200 miliardi su Google Cloud (e perché conta)

Il 5 maggio The Information ha riportato l'impegno di spesa: Anthropic spenderà 200 miliardi di dollari su Google Cloud nei prossimi cinque anni, principalmente per TPU (con Broadcom come chip partner) — gigawatt di capacità che entrano online a partire dal 2027.

Numeri che servono da contesto:

Per chi non vive nel finance: "revenue backlog" è la pipeline di ricavi futuri contrattualizzati ma non ancora fatturati. Quando un singolo cliente vale il 40% del backlog del tuo cloud, il rapporto fornitore-cliente si inverte: Anthropic compra in volume, Google gli fa termini su misura — chip preferenziali, finestre di scalabilità, possibilmente exclusivity su classi di TPU.

Lezione strategica: l'AI di frontiera è ormai una storia di capital allocation tanto quanto di research. Chi non controlla la lunga durata della supply chain compute (chip, fab, energia, raffreddamento) non gioca al tavolo principale. Per gli sviluppatori: aspettarsi maggiore divergenza tra pricing API delle frontier lab e pricing dei provider mid-tier — gli unit economics di chi compra TPU al 2027-pricing differiscono brutalmente da chi noleggia A100 oggi.

  • Stima 2026 dei server cost di Anthropic: $20B (era prevista al di sotto dei $10B sei mesi fa).
  • Run-rate revenue Anthropic ad aprile 2026: $30B annualizzato (da ~$9B a fine 2025, +233% in 4 mesi).
  • Il deal copre oltre il 40% del revenue backlog comunicato da Google agli investitori.
  • I contratti combinati di Anthropic e OpenAI valgono ~$1 trilione, circa metà dei $2T di backlog dei quattro grandi hyperscaler (AWS, Azure, GCP, Oracle).
CAISI: il regolatore tecnico entra in scena

CAISI: il regolatore tecnico entra in scena

Il 5 maggio NIST (Department of Commerce) ha annunciato accordi formali tra il Center for AI Standards and Innovation (CAISI) e tre lab: Google DeepMind, Microsoft, xAI. L'oggetto: pre-deployment evaluations su modelli di frontiera in ambiente classificato.

Cosa significa "pre-deployment evaluation" in pratica:

Anthropic è curiosamente assente dalla lista pubblica. Due letture: (a) Anthropic ha già un rapporto bilaterale più profondo via Mythos, non rientra negli accordi "standard"; (b) Anthropic ha negoziato un canale separato che le permette di mantenere maggior autonomia. Entrambe sono possibili.

Cosa NON è CAISI: non è regolazione vincolante. Non c'è ancora una legge federale USA che imponga pre-deployment testing. Gli accordi sono volontari — leggi: i lab hanno deciso che cedere visibilità a NIST è preferibile a una regolazione legislativa peggiore. Il riferimento implicito è il modello UK AISI (AI Security Institute) e l'esperienza europea con l'AI Act.

  • I lab consegnano a CAISI il modello (weights o accesso black-box, dipende dal contratto) PRIMA del rilascio pubblico.
  • CAISI esegue adversarial assessment: red-teaming su cybersecurity offensive, biosecurity, weapons of mass destruction (CBRN), misuse pathway.
  • Test eseguiti in classified environments — non si sa pubblicamente quali metriche sono usate.
  • CAISI ha già completato 40+ evaluation pre-CAISI (precedente NIST AI Safety Institute).
Il mercato enterprise: Anthropic stacca OpenAI

Il mercato enterprise: Anthropic stacca OpenAI

Dati Ramp AI Index (febbraio-marzo 2026, validati su clienti reali Ramp):

Numeri di revenue:

Lettura: OpenAI domina ancora SMB e consumer (ChatGPT app, Plus subscription). Anthropic domina enterprise e developer tooling (Claude API, Claude Code, agent framework). Il differenziale Cloud-Mythos-CAISI consolida la posizione enterprise: chi compra Claude per l'azienda compra anche garanzie di compute (deal Google), audit governativo (CAISI), e accesso opzionale a capability premium (Mythos per cybersec defense).

  • First-time AI buyers: Anthropic cattura il 73% della spesa. Dieci settimane prima era 50/50. Dodici mesi prima era 60/40 a favore di OpenAI.
  • Adozione business AI globale: 47.6% delle aziende (record assoluto).
  • Share Anthropic sul cliente medio Ramp: 24.4% (era 4% un anno fa — 6x).
  • Code generation enterprise: Claude 42-54% di market share, OpenAI 21%.
  • Enterprise agent market: Anthropic 40%, OpenAI 27%.
  • OpenAI: $25B di run-rate dichiarato per il 2026.
  • Anthropic: $30B di run-rate ad aprile (da $19B previsti dal proprio piano), in crescita verticale.

Cosa cambia per chi costruisce

Sintesi operativa per chi scrive codice, vende software, o gestisce infrastruttura:

a) Security shift: se nel 2025 il modello di minaccia era "exploit-kit umano + AI-assisted", nel 2026 diventa "AI-driven autonomous exploit chain". Patch tempestiva non è più ottimale — è obbligatoria. Pipeline CI/CD devono integrare SAST + DAST con frequenza giornaliera. SLA di rotazione patch da settimane a giorni.

b) Vendor lock-in compute: prevedere uno scenario in cui le frontier lab offrono pricing API ben sotto il proprio costo marginale (sovvenzionato dai deal cloud), schiacciando i provider mid-tier. Se costruisci su API di terze parti, abstraction layer (LiteLLM, OpenRouter, Vercel AI SDK) non sono "nice-to-have", sono assicurazione.

c) Governance internazionale: aziende europee che operano su Claude/GPT API in ambiti regolati (finance, healthcare, government) dovranno chiedersi se modelli soggetti a CAISI sono compatibili con i requisiti dell'AI Act. Probabile: ondata di certificazioni "EU-compliant frontier model" nel 2026-Q4.

d) Hiring: il profilo "AI security engineer" — qualcuno che capisce sia agent loop sia exploit development — passa da figura rara a essenziale. Aspettarsi salari 30-50% sopra il software engineering tradizionale entro 12 mesi.

e) Per gli sviluppatori solitari: la finestra di vantaggio comparativo è ora. I tool agentici costano 1/100 dei team enterprise e fanno il 60-70% del lavoro di un junior in stack standard. Chi pad-up oggi su Claude Code, agent framework, e RAG verticali ha 18-24 mesi prima che diventi commodity.

Take-away

Take-away

Mythos non è una novità isolata: è la prova che la capability frontier ha superato il punto in cui "AI usabile" coincideva con "AI sicura per default". Il deal Google + il setup CAISI + la dominanza enterprise di Anthropic ridisegnano contemporaneamente tre cose:

Il deal da $200 miliardi su Google Cloud (e perché conta)

Chi può costruire AI di frontiera (chi ha $200B di compute budget — pochi).

Chi può usare AI di frontiera (con gating governativo crescente).

Chi paga AI di frontiera (mercato enterprise consolidato intorno a 2-3 player).

Questi tre fattori amplificano un trend già evidente: l'AI sta diventando un'industria a barriere alte, non bassa come l'open-source LLM lasciava sperare nel 2024. La buona notizia per dev e indie: i tool che oggi sembrano cari saranno commoditizzati entro 24 mesi — la vera vittoria è imparare a usarli ORA per costruire infrastructure, workflow, e moat prima che lo faccia il next-door senior engineer.

Buon hacking — defensive, ovviamente.

Traduci