Scontro AI-Pentagono: quando l'innovazione sfida il potere
Riassunto
La settimana è stata dominata dalla battaglia legale tra Anthropic e il Pentagono, con Big Tech che si schiera contro il governo USA. Yann LeCun sfida l'intero settore con 1 miliardo per i world models, mentre un'inchiesta britannica rivela investimenti AI fantasma. OpenAI intanto compra sicurezza per i suoi agenti pericolosi.
Anthropic vs Pentagono: la battaglia che ridefinisce l'AI militare
Ecco la verità che nessuno vuole dire: la guerra tra Anthropic e il Pentagono non è una disputa contrattuale, è una battaglia per il controllo dell'intelligenza artificiale americana. Quando il Dipartimento della Difesa ha etichettato Anthropic come "rischio della catena di approvvigionamento" - la prima volta nella storia per un'azienda americana - ha mandato un messaggio chiaro: chi non si piega alle richieste militari viene eliminato.
Dario Amodei, CEO di Anthropic, ha rifiutato di permettere l'uso di Claude per la sorveglianza di massa domestica e armi autonome letali. Una posizione che suona nobile, ma che nasconde una contraddizione fondamentale: Anthropic ha già partnership classificate con il Pentagono e Palantir. Il Washington Post rivela che Claude viene già utilizzato per decidere dove colpire in Iran attraverso il sistema Maven di Palantir.
Ma il vero problema è sistemico. Come osserva Ashley Deeks della University of Virginia Law School, viviamo in un "doppio black box": le aziende tech non sanno come i militari usano la loro tecnologia, e i militari non capiscono come funzionano davvero questi sistemi AI. È una ricetta per il disastro.
Ora Anthropic ha fatto causa al Pentagono, sostenendo violazioni del Primo Emendamento. Nel frattempo, OpenAI si è affrettata a firmare un contratto militare, scatenando proteste interne. La domanda scomoda: in un'era dove l'AI può uccidere autonomamente, chi dovrebbe decidere i limiti etici - le aziende private o il governo?
Big Tech si ribella: dipendenti OpenAI e Google difendono Anthropic
Quello che sta succedendo è senza precedenti: oltre 30 dipendenti di OpenAI e Google, incluso Jeff Dean (chief scientist di DeepMind), hanno depositato un amicus brief a sostegno di Anthropic contro il governo USA. Non è solidarietà aziendale - è paura pura per il futuro dell'innovazione americana.
Il brief è brutalmente diretto: "Se questo sforzo di punire una delle principali aziende AI americane procede, avrà conseguenze per la competitività industriale e scientifica degli Stati Uniti nell'intelligenza artificiale e oltre". Tradotto: il Pentagono sta sabotando la leadership tecnologica americana per vendetta politica.
Anche Sam Altman di OpenAI - che ha appena firmato un contratto militare sostituendo Anthropic - ha pubblicamente criticato la decisione: "Applicare la designazione SCR su Anthropic sarebbe molto negativo per la nostra industria e il nostro paese". Un'ammissione imbarazzante che il suo deal è stato opportunistico.
I dipendenti sostengono che le "linee rosse" di Anthropic - no sorveglianza di massa, no armi letali autonome - sono preoccupazioni legittime che richiedono garanzie. Senza leggi pubbliche, "i requisiti contrattuali e tecnologici che gli sviluppatori AI impongono sui loro sistemi rappresentano una salvaguardia vitale contro il loro uso catastrofico".
La Silicon Valley si sta svegliando: quando i tuoi stessi dipendenti si ribellano pubblicamente contro le decisioni del Pentagono, significa che la linea è stata superata.
Yann LeCun sfida tutti: 1 miliardo per uccidere i Large Language Models
Yann LeCun ha appena dichiarato guerra all'intero settore AI. Il pioniere dell'intelligenza artificiale e vincitore del Turing Award ha raccolto oltre 1 miliardo di dollari per AMI, la sua nuova startup che punta a dimostrare una verità scomoda: "L'idea che estenderai le capacità degli LLM al punto da avere intelligenza a livello umano è una completa assurdità".
Mentre OpenAI, Anthropic e persino la sua ex azienda Meta scommettono tutto sui Large Language Models, LeCun va nella direzione opposta con i "world models" - AI che imparano dal mondo fisico, non dal linguaggio. È una scommessa da 3,5 miliardi di dollari di valutazione contro l'intero establishment.
La sua critica è tagliente: gli LLM hanno creato "una sorta di delusione" tra chi li costruisce. Sono utili per generare codice, ma "non porteranno affatto all'intelligenza a livello umano". LeCun sostiene che la maggior parte del ragionamento umano è radicato nel mondo fisico, non nel linguaggio.
AMI lavorerà con aziende in manifatturiero, biomedicale e robotica, costruendo modelli realistici del mondo - come un motore aeronautico - per ottimizzare efficienza ed emissioni. La startup sarà open source fin dall'inizio, con uffici a Parigi, Montreal, Singapore e New York.
La domanda che terrorizza la Silicon Valley: e se LeCun avesse ragione? Se i world models rappresentassero il vero futuro dell'AI, miliardi investiti negli LLM potrebbero evaporare.
UK AI Boom: miliardi fantasma e supercomputer inesistenti
L'inchiesta del Guardian demolisce il miracolo AI britannico: dietro gli annunci roboanti di investimenti miliardari si nascondono "investimenti fantasma" e una contabilità creativa che farebbe arrossire Enron. Il governo di Starmer ha spacciato per crescita economica quello che in realtà sono chip taiwanesi spostati in edifici esistenti.
Il caso più clamoroso è Nscale: ha promesso un supercomputer da 2,5 miliardi di dollari a Loughton entro fine 2026, ma il sito è ancora un deposito di ponteggi. La Guardian ha visitato il terreno a febbraio - niente costruzione, niente proprietà registrata, solo camion che caricano pali metallici. Nscale ha presentato la domanda di pianificazione solo dopo che i giornalisti hanno iniziato a fare domande.
CoreWeave ha annunciato 1 miliardo di investimenti per "due nuovi data center", ma non ha costruito nulla. Ha semplicemente affittato spazio in edifici del 2002 e 2015, installandovi chip Nvidia. Il governo ammette di non avere "meccanismi per verificare" questi investimenti miliardari.
Cecilia Rikap dell'UCL è brutale: "Sono investimenti fantasma. Le big tech gonfiano artificialmente l'impatto economico dei data center per compiacere governi disperati di rivendicare crescita economica". Il risultato? Nscale ha visto le sue azioni da 1 penny schizzare a una valutazione di 14,6 miliardi - un ritorno del 350.000%.
OpenAI compra Promptfoo: la corsa alla sicurezza degli agenti AI
OpenAI ha appena ammesso che i suoi agenti AI sono pericolosi. L'acquisizione di Promptfoo - una startup di sicurezza AI fondata nel 2024 - rivela una verità scomoda: mentre tutti parlano di produttività, gli agenti autonomi stanno creando nuove opportunità per i cattivi attori di accedere a dati sensibili e manipolare sistemi automatizzati.
Promptfoo sviluppa strumenti per testare vulnerabilità di sicurezza negli LLM, inclusa un'interfaccia open-source usata da oltre il 25% delle Fortune 500. Il timing dell'acquisizione non è casuale: arriva mentre OpenAI lancia Frontier, la sua piattaforma enterprise per "AI coworkers" che operano in flussi di lavoro reali.
La tecnologia di Promptfoo permetterà a Frontier di eseguire "red-teaming automatizzato" - essenzialmente hackerare se stesso per trovare falle - e monitorare le attività degli agenti per rischi e conformità. È un'ammissione che gli agenti AI possono andare fuori controllo.
Il problema è sistemico: gli agenti AI che sembrano produttivi possono essere manipolati attraverso prompt injection, avvelenamento del modello e altre tecniche per agire contro gli interessi dell'organizzazione. Microsoft ha coniato il termine "double agents" per descrivere questo scenario da incubo.
OpenAI promette di continuare a sviluppare l'offerta open-source di Promptfoo, ma la domanda rimane: se gli agenti AI richiedono così tanta sicurezza, sono davvero pronti per l'enterprise?
Da Leggere Più Tardi
Approfondimenti e letture consigliate per esplorare ulteriormente gli argomenti trattati
Altre storie che meritano attenzione: Microsoft lancia Agent 365 e Enterprise 7 per governare gli agenti AI "double agents" a 99$ al mese, mentre Nscale raccoglie altri 2 miliardi con Sandberg e Clegg nel board. Nel fronte mobilità, la FAA approva test di taxi volanti in 26 stati, mentre Archer e Joby si accusano reciprocamente di legami cinesi nascosti. Sul fronte robotica, Qualcomm-Neura e ABB-Nvidia annunciano partnership per l'AI fisica. Jay Graber lascia la CEO di Bluesky per diventare Chief Innovation Officer, mentre migliaia di autori pubblicano un libro vuoto per protestare contro l'uso delle loro opere da parte dell'AI. La realtà dietro l'hype: mentre tutti parlano di rivoluzione, la vera battaglia è per il controllo dei dati, della sicurezza e del potere decisionale nell'era dell'intelligenza artificiale.
Naviga nel tema
Ricevi digest come questo direttamente su Telegram
Unisciti a migliaia di utenti che ricevono quotidianamente analisi curate su innovazione e ai. Informazione di qualità, zero spam.
Iscriviti al canale Innovazione e AI