AI Wars: Quando il talento diventa il nuovo petrolio e i regolatori dormono
Riassunto
La settimana dell'AI è stata dominata da guerre di potere e soldi: Meta e OpenAI si accusano a vicenda sui bonus milionari mentre si rubano i migliori talenti, il Congresso USA vuole bloccare le regolamentazioni statali sull'AI per 10 anni (indovinate chi ci guadagna), i costi nascosti dell'AI stanno mandando in bancarotta le aziende con bollette che esplodono del 1000% overnight, Meta ora vuole accesso alle vostre foto private per training AI, e la Danimarca ha risolto il problema deepfake mentre l'America discute ancora. Il messaggio è chiaro: chi ha più soldi e meno scrupoli sta vincendo.
Meta vs OpenAI: La guerra dei talenti da 100 milioni che nessuno vuole ammettere
Dimentichiamo l'hype e parliamo di fatti. Sam Altman ha dichiarato che Meta offre bonus da 100 milioni di dollari per rubare i suoi ricercatori. Andrew Bosworth, CTO di Meta, ha risposto chiamando Altman "disonesto" durante un meeting interno aziendale. Ma ecco la verità che nessuno vuole dirvi: entrambi stanno mentendo a metà.
Meta non sta distribuendo assegni da 100 milioni come caramelle. Ma sta offrendo pacchetti retributivi pluriennali che possono raggiungere quella cifra per i ruoli di leadership senior nel nuovo team Superintelligence. La differenza? Non sono bonus immediati, ma RSU distribuite su quattro anni legate a performance e permanenza.
Il vero problema è che questa guerra dei talenti sta distorcendo completamente il mercato dell'AI. Lucas Beyer, che ha lasciato l'ufficio di Zurigo di OpenAI per Meta, ha dovuto chiarire su Twitter: "No, non abbiamo ricevuto 100M di sign-on, sono fake news." Ma ha confermato il trasferimento insieme ai suoi due colleghi che dirigevano l'ufficio svizzero.
Ma il vero colpo basso? Meta ha anche acquisito Trapit Bansal, il ricercatore che ha co-creato il modello o1 di OpenAI. Questo non è solo brain drain, è intellectual property theft mascherato da recruiting aggressivo. Quando acquisisci le persone che hanno costruito i modelli della concorrenza, stai comprando molto più di talento: stai comprando segreti commerciali.
Altman sa di essere in svantaggio e sta usando la narrativa dei "100 milioni" per dipingere Meta come disperata. Ma la realtà è che Meta ha semplicemente più soldi e meno scrupoli nel spenderli.
Il Congresso USA vuole bloccare le leggi statali sull'AI per 10 anni. Indovinate chi ci guadagna
Quello che non vi stanno dicendo è che il budget reconciliation bill repubblicano include una clausola che vieterebbe agli stati di regolamentare l'AI per un decennio. E no, non è per "proteggere l'innovazione" come sostiene Ted Cruz.
La proposta, nascosta nel "Big Beautiful Bill" di Trump, condiziona i fondi federali per la banda larga al rispetto del divieto di regolamentazione AI. In pratica: se il tuo stato vuole proteggere i cittadini dai deepfake o dalla discriminazione algoritmica, addio ai 500 milioni di dollari federali.
Sam Altman e Marc Andreessen sono ovviamente entusiasti. Sostengono che un "patchwork" di regolamentazioni statali soffocherebbe l'innovazione americana nella corsa contro la Cina. Ma ecco il fatto scomodo: molte leggi statali esistenti non sono affatto un patchwork caotico. Alabama, Arizona, California, Delaware e Texas hanno tutti criminalizzato i deepfake elettorali con linguaggio quasi identico.
Il vero motivo dietro questa mossa? Le aziende AI non vogliono accountability. Mentre il Congresso si muove alla velocità di una lumaca artritica, gli stati hanno già approvato leggi concrete su bias algoritmici, privacy dei dati e trasparenza AI. La California ha l'AB 2013 che obbliga le aziende a rivelare i dati di training. Il Tennessee ha l'ELVIS Act che protegge musicisti e creatori.
Dario Amodei di Anthropic ha definito la moratoria "uno strumento troppo grossolano", e ha ragione. Senza un piano federale chiaro, questa proposta ci dà il peggio di entrambi i mondi: nessuna capacità statale di agire, nessuna politica nazionale come backup.
La vera ironia? Alcuni repubblicani come Josh Hawley e Marsha Blackburn si oppongono, citando i diritti degli stati. Quando persino i GOP si ribellano, sapete che qualcosa puzza.
I costi nascosti dell'AI che stanno mandando in bancarotta le aziende
Nessuno vuole dirlo, ma l'AI sta diventando un buco nero finanziario. Google ha appena ammesso che le sue emissioni di carbonio sono aumentate del 51% dal 2019, principalmente a causa dell'AI. Ma questo è solo la punta dell'iceberg dei costi nascosti che stanno emergendo.
L'inferenza AI è diventata la nuova "cloud tax". Christian Khoury di EasyAudit AI ha visto aziende passare da 5.000 a 50.000 dollari al mese overnight, solo per il traffico di inferenza. Il problema? I modelli LLM sono non-deterministici e possono generare output diversi per task lunghi, rendendo impossibile prevedere i costi.
Ma il vero problema è più profondo. Le aziende stanno scoprendo che il cloud pricing per l'AI può costare 3-4 volte di più rispetto ai provider più piccoli. Ecco perché molte stanno spostando l'inferenza verso colocation o on-premise, mantenendo solo il training nel cloud.
Un caso studio: una SaaS company ha ridotto la bolletta AI mensile da 42.000 a 9.000 dollari spostando l'inferenza fuori dal cloud. Il payback? Due settimane.
Poi c'è il problema del "prompt ops" - una nuova disciplina nata per gestire i costi esplosivi dei prompt mal ottimizzati. I modelli di reasoning come o3 spesso forniscono risposte verbose anche a domande semplici, moltiplicando i costi dei token. Un prompt mal scritto può trasformare una domanda da 10 token in una risposta da 200 token, con costi che si moltiplicano.
La verità scomoda? Molte aziende stanno scoprendo che l'AI non è solo costosa da implementare, ma anche da mantenere sicura. Gli attacchi runtime possono trasformare sistemi AI profittevoli in "budget black holes", con costi di breach che superano i 5 milioni per incidente nei settori regolamentati.
Meta ora vuole le vostre foto private. E questa volta non sta nemmeno fingendo
Ecco la verità che Meta spera non noterete: Facebook sta ora chiedendo accesso al vostro camera roll per "suggerimenti creativi AI", incluse foto che non avete mai caricato sui social.
Il pop-up appare quando create una Storia e chiede di attivare il "cloud processing" per permettere a Facebook di "selezionare media dal vostro camera roll e caricarli nel nostro cloud su base regolare". Accettando, autorizzate Meta AI ad analizzare "media e caratteristiche facciali" di foto private, più data, posizione e presenza di persone o oggetti.
Ma il vero problema è nelle AI Terms di Meta, attive dal 23 giugno 2024. Il testo dice che Meta può "trattenere e usare" qualsiasi informazione personale condivisa per personalizzare gli output AI. E indovinate cosa? Non definiscono cosa considerano "informazione personale" oltre ai prompt e feedback.
Questo va ben oltre quello che Meta aveva precedentemente annunciato riguardo l'uso di post pubblici per training AI. Ora stanno accedendo a foto che non avete mai scelto di condividere, bypassando completamente il punto di attrito del "decidere consapevolmente di postare".
La ciliegina sulla torta? Un utente Reddit ha scoperto che Facebook aveva automaticamente trasformato una sua vecchia foto in anime usando Meta AI, senza il suo consenso. Altri hanno trovato che l'AI aveva "Studio Ghiblificato" le loro foto di matrimonio senza avvisarli.
Mentre Google dichiara esplicitamente di non usare Google Photos per training AI generativo, Meta non fornisce alcuna chiarezza su se le foto private accedute tramite "cloud processing" siano esenti dall'uso come dati di training.
Potete disattivare questa funzione nelle impostazioni, ma il fatto che sia opt-out piuttosto che opt-in dice tutto quello che dovete sapere sulle vere intenzioni di Meta.
La Danimarca ha trovato la soluzione ai deepfake che l'America non vuole copiare
Mentre l'America discute di vietare TikTok, la Danimarca ha risolto il problema dei deepfake. Il governo danese sta per approvare la prima legge europea che dà alle persone il copyright sui propri volti, voci e caratteristiche fisiche.
La proposta, che ha il supporto di 9 parlamentari su 10, definisce un deepfake come "una rappresentazione digitale molto realistica di una persona, incluso aspetto e voce". Una volta approvata, darà teoricamente alle persone il diritto di chiedere alle piattaforme online di rimuovere contenuti creati senza consenso.
Jakob Engel-Schmidt, ministro della cultura danese, ha detto al Guardian: "Gli esseri umani possono essere passati attraverso la macchina fotocopiatrice digitale e abusati per ogni tipo di scopo, e non sono disposto ad accettarlo."
Ma ecco il dettaglio che conta: la legge non influenzerà parodie e satira, che rimarranno permesse. E se le piattaforme tech non si conformano, potrebbero essere soggette a "multe severe" e potrebbe diventare una questione per la Commissione Europea.
Il contrasto con gli Stati Uniti è stridente. Mentre diversi stati americani hanno approvato leggi sui deepfake, sono principalmente legate all'uso improprio durante elezioni e contenuti sessualmente espliciti non consensuali. E ora molte di queste leggi sono a rischio a causa della proposta nel budget reconciliation bill che toglierebbe agli stati il potere di regolamentare l'AI per 10 anni.
Engel-Schmidt spera che altri paesi europei seguano l'esempio danese e pianifica di usare la prossima presidenza UE della Danimarca per condividere i piani con i colleghi europei. La domanda è: perché l'America, che si vanta di essere leader nell'innovazione, sta permettendo che un piccolo paese nordico la superi nella protezione dei diritti digitali fondamentali?
Da Leggere Più Tardi
Approfondimenti e letture consigliate per esplorare ulteriormente gli argomenti trattati
Altre storie che meritano attenzione: DeepSeek continua a far parlare di sé, con funzionari tedeschi che chiedono la rimozione dell'app dagli store per violazioni della privacy. Nel frattempo, Google ha lanciato Doppl, un'app che permette di provare virtualmente vestiti usando AI, mentre Adobe presenta Project Indigo, una camera app che promette di rivoluzionare la fotografia mobile.
Sul fronte enterprise, OpenAI sta spingendo i suoi strumenti per sviluppatori con risultati promettenti, mentre Highmark Health e Google Cloud mostrano come l'AI può trasformare davvero la sanità. Kumo AI presenta il suo "relational foundation model" che promette di predire il futuro che i vostri LLM non riescono a vedere.
Innovazioni interessanti arrivano anche dalla robotica: Google DeepMind ha svelato robot AI che funzionano offline, mentre MIT usa l'AI generativa per aiutare i robot a saltare più in alto. Sul fronte energy, Redwood Materials lancia il business energy storage puntando sui data center AI.
Naviga nel tema
Ricevi digest come questo direttamente su Telegram
Unisciti a migliaia di utenti che ricevono quotidianamente analisi curate su innovazione e ai. Informazione di qualità, zero spam.
Iscriviti al canale Innovazione e AI