Miliardi in gioco, ma nessuno sa dove stiamo andando
Riassunto
L'industria AI sta bruciando centinaia di miliardi in una corsa cieca verso un futuro incerto. Mentre OpenAI e Microsoft firmano contratti miliardari per diversificare i rischi, Studio Ghibli dichiara guerra per il copyright violato. L'energia non basta per alimentare tutti i chip ordinati, i test di sicurezza sono fallimentari, e l'AI viene usata per creare pornografia non consensuale. Benvenuti nel Far West dell'intelligenza artificiale.
La corsa ai $400 miliardi: quando l'AI diventa una scommessa cieca
Ecco la verità che nessuno vuole ammettere: stiamo assistendo alla più grande redistribuzione di capitale della storia tech, e nessuno sa davvero cosa sta comprando. OpenAI ha appena siglato un accordo da $38 miliardi con AWS per accedere a centinaia di migliaia di GPU Nvidia, mentre Microsoft ha firmato contratti per $9,7 miliardi con IREN e altri miliardi con Lambda.
Ma dietro questi numeri da capogiro si nasconde una realtà scomoda: le aziende stanno diversificando freneticamente perché nessuna sa quale sarà la piattaforma vincente. Come dice Mark Beccue di Omdia: "Stanno spargendo le fiches sul tavolo. Non poco qui e poco là. Molto qui, molto là."
Il paradosso è evidente: OpenAI, che dovrebbe essere il leader del settore, sta abbandonando la sua dipendenza da Microsoft per cercare alleanze con Oracle, AWS e chiunque altro. Contemporaneamente, Microsoft si sta assicurando GPU da fornitori alternativi. È il classico segnale di un mercato che non ha ancora trovato i suoi equilibri.
La domanda che tutti evitano: se queste aziende fossero davvero sicure delle loro strategie AI, perché stanno spendendo così tanto per coprirsi le spalle?
Studio Ghibli vs OpenAI: la battaglia che cambierà tutto
Dimentichiamo l'hype e parliamo di fatti: Studio Ghibli, Bandai Namco e Square Enix hanno dichiarato guerra a OpenAI, e questa volta non si tratta solo di una lettera di protesta. L'associazione giapponese CODA ha messo nero su bianco quello che tutti sapevamo: OpenAI ha addestrato Sora sui loro contenuti senza permesso.
Il problema non è solo etico, è strategico. Quando Sora 2 è stato lanciato, ha immediatamente iniziato a sfornare contenuti in stile Ghibli così convincenti che persino Sam Altman ha cambiato la sua foto profilo con una versione "ghiblificata" di se stesso. Un po' ironico per qualcuno che sta essenzialmente rubando il lavoro di Hayao Miyazaki.
Ma ecco il punto cruciale: il Giappone ha leggi sul copyright diverse dagli Stati Uniti. Mentre qui le aziende AI giocano con la strategia "chiediamo scusa dopo", in Giappone serve il permesso preventivo. CODA lo dice chiaramente: "Non esiste un sistema che permette di evitare la responsabilità attraverso obiezioni successive."
Quello che non vi stanno dicendo: questa battaglia legale potrebbe creare il primo precedente internazionale che costringe le aziende AI a pagare per i contenuti che utilizzano. E se il Giappone vince, altri paesi seguiranno.
Il problema che nessuno vuole affrontare: l'AI sta per implodere
Nessuno vuole dirlo, ma stiamo assistendo a una bolla alimentata dalla paura di restare indietro. Amazon, Google, Microsoft e Meta hanno speso oltre $350 miliardi quest'anno in investimenti a lungo termine, con la promessa di "aumenti significativi" per il 2026. Ma i ritorni? Opachi nel migliore dei casi.
OpenAI ha raggiunto $12 miliardi di ricavi annualizzati mentre brucia $115 miliardi fino al 2029. Anche il tier da $200 al mese di ChatGPT sta perdendo soldi. Come fa un'azienda a giustificare una IPO da $1 trilione con questi numeri?
Il vero problema è l'energia. Altman e Nadella ammettono candidamente di aver ordinato più chip di quanta energia riescano a procurarsi. "Il mio problema oggi non è la mancanza di chip, è che non ho strutture calde dove collegarli", confessa Nadella. Microsoft ha letteralmente chip che raccolgono polvere perché non può alimentarli.
Ma il vero problema è che se l'AI diventa più efficiente o la domanda non cresce come previsto, molte aziende si ritroveranno con centrali elettriche inutili e contratti energetici miliardari. Come dice Altman: "Se una forma di energia molto economica arriva presto su larga scala, molte persone si bruceranno con i contratti esistenti."
L'AI che violenta: quando la tecnologia diventa arma di odio
Quello che sta succedendo in Italia dovrebbe terrorizzare chiunque. Siti come Social Media Girls, con oltre 7 milioni di iscritti, stanno usando l'AI per creare immagini pornografiche di donne senza il loro consenso. Non parliamo di deepfake amatoriali: parliamo di "stupro virtuale" industrializzato.
Francesca Barra, giornalista e conduttrice TV, è stata la prima a denunciare pubblicamente dopo aver scoperto le sue immagini "nudificate" sul sito. "Mi sono sentita violata e mortificata", racconta. Ma il problema va oltre le celebrità: migliaia di donne comuni vengono vittimizzate ogni giorno, molte troppo spaventate per denunciare.
Il pattern è sempre lo stesso: siti come Mia Moglie (ora chiuso) dove i mariti condividevano foto intime delle mogli, Phica con immagini manipolate di figure pubbliche inclusa Giorgia Meloni, e ora Social Media Girls. Quando ne chiudono uno, ne spunta un altro.
L'Italia è diventata il primo paese UE ad approvare una legge completa sull'AI con pene detentive per chi diffonde contenuti manipolati. Ma come dice l'avvocato Daniela Caputo: "Il problema non è unico all'Italia - è un fenomeno globale che richiede una sinergia internazionale." Perché quando la tecnologia può trasformare qualsiasi donna in una vittima con un click, non stiamo più parlando di innovazione. Stiamo parlando di armi.
Test falliti e bugie: perché non possiamo fidarci dell'AI
Ecco un fatto che dovrebbe preoccuparvi: gli strumenti che usiamo per testare la sicurezza dell'AI sono fondamentalmente rotti. Ricercatori di Oxford, Stanford e Berkeley hanno esaminato oltre 440 benchmark di sicurezza AI e hanno trovato difetti "che minano la validità delle affermazioni risultanti" in quasi tutti.
Ma il problema va oltre i test difettosi. Grokipedia di Elon Musk, lanciata come alternativa "non woke" a Wikipedia, è un disastro di disinformazione. Il professor Richard Evans ha scoperto che la sua biografia conteneva fatti completamente inventati: dottorato sotto Theodore Zeldin (falso), successore di David Cannadine a Cambridge (falso), supervisore di tesi su Bismarck (falso).
Google ha dovuto ritirare il suo modello Gemma dopo che ha inventato accuse criminali false contro la senatrice Marsha Blackburn, inclusi link fasulli a articoli di giornale inesistenti. "Non è un'allucinazione innocua. È un atto di diffamazione", ha scritto la senatrice a Sundar Pichai.
Solo il 16% dei benchmark usa test statistici per mostrare quanto sia probabile che siano accurati. Il resto? Pura speculazione mascherata da scienza. Come dice Andrew Bean di Oxford: "Senza definizioni condivise e misurazioni solide, diventa difficile sapere se i modelli stanno davvero migliorando o stanno solo sembrando farlo."
Da Leggere Più Tardi
Approfondimenti e letture consigliate per esplorare ulteriormente gli argomenti trattati
Altre storie che meritano attenzione: Alphabet sta cambiando strategia per i progetti moonshot, lanciandoli come aziende indipendenti invece di tenerli dentro la struttura corporate. Hyundai e Nvidia costruiscono una AI factory da $3 miliardi con 50.000 GPU Blackwell in Corea del Sud. Nel frattempo, Chrome aggiunge l'autofill per passaporti e patenti, mentre Dia browser integra le funzionalità migliori di Arc. OpenAI chiarisce che ChatGPT può ancora dare consigli legali e medici, smentendo i rumors. Kevin Rose ha un test semplice per l'hardware AI: "Se ti viene voglia di prendere a pugni chi lo indossa, probabilmente non dovresti investirci." Infine, Coca-Cola continua a produrre pubblicità natalizie generate dall'AI che sembrano uscite da un incubo digitale.
Naviga nel tema
Ricevi digest come questo direttamente su Telegram
Unisciti a migliaia di utenti che ricevono quotidianamente analisi curate su innovazione e ai. Informazione di qualità, zero spam.
Iscriviti al canale Innovazione e AI