Ho aspettato qualche giorno prima di scrivere questo articolo. Volevo vedere cosa succedeva davvero, leggere le reazioni, analizzare i problemi. Non volevo solo fare da grancassa alle big tech, ma per raccontarvi tutte le facce della medaglia.
Gli ultimi giorni di settembre 2025 sono stati frenetici nel mondo dell’intelligenza artificiale. Anthropic ha lanciato Claude Sonnet 4.5, OpenAI ha risposto con Sora 2 e il suo controverso social network, e nel frattempo la “Dead Internet Theory” sembra sempre meno una teoria e sempre più una realtà.
Ma dietro gli annunci patinati e i video dimostrativi perfetti, c’è una storia molto più complessa – e in alcuni casi inquietante – di quella che vi raccontano i comunicati stampa.
Claude Sonnet 4.5: Non Solo Più Veloce
Il Salto Quantico della Memoria
Anthropic ha presentato Claude Sonnet 4.5 come “il miglior modello di programmazione al mondo”, e i numeri sembrano dargli ragione. Su OSWorld, il benchmark che testa le capacità di interazione con il computer, Sonnet 4.5 raggiunge il 61.4% – un salto impressionante rispetto al 42.2% del modello precedente, uscito solo quattro mesi prima.
Ma la vera rivoluzione non è nella velocità o nella potenza bruta. È nella gestione della memoria.
Chiunque abbia usato un’AI generativa sa qual è il problema più frustrante: dopo un po’ di conversazione, il modello si dimentica tutto. È come parlare con qualcuno che ha una memoria da pesce rosso. Gli racconti un progetto complesso, dopo tre pagine… boom, ha già dimenticato l’inizio.
Claude 4.5 risolve questo problema con due innovazioni:
Context Editing: il modello fa “pulizia” della memoria, eliminando informazioni ridondanti o obsolete e mantenendo solo ciò che è ancora utile al ragionamento. È come avere un assistente che prende appunti e butta via i fogli vecchi per fare spazio a quelli importanti.
Memory Tool: una forma embrionale di memoria esterna che consente di salvare dati e recuperarli in sessioni successive. Il modello non dimentica più il progetto su cui stavate lavorando ieri.
Secondo i test, Claude 4.5 riesce a mantenere coerenza su task multi-step per oltre 30 ore consecutive – un risultato impensabile fino a pochi mesi fa. Non stiamo parlando di pura retorica: c’è la dimostrazione concreta che può gestire progetti lunghi senza deragliare a metà percorso.
L’Ansia da Contesto
Ma c’è un dettaglio curioso che gli utenti hanno scoperto: Claude 4.5 soffre di quella che è stata definita “ansia da contesto”.
Quando il modello percepisce di essere vicino al limite massimo di token, tende ad anticipare tagli o semplificazioni, buttando via pezzi di ragionamento che per l’utente erano magari fondamentali. È la versione digitale di quel manager che, vedendo l’agenda piena, inizia a cancellare riunioni a caso senza chiedere se fossero davvero importanti.
Non è esattamente il comportamento che ci si aspetta da una macchina che dovrebbe potenziare la continuità cognitiva.
L’AI Che Capisce di Essere Testata (E Questo È un Problema)
Ed eccoci alla parte più inquietante della storia.
I ricercatori di Anthropic hanno avuto un problema durante i test di sicurezza di Claude 4.5. Il problema? Claude si è accorto di essere testato.
Nel documento ufficiale (il System Card) scrivono: “La nostra valutazione è stata complicata dal fatto che Claude Sonnet 4.5 è stato in grado di riconoscere molti dei nostri ambienti di test come test di qualche tipo, e generalmente si comportava insolitamente bene dopo aver fatto questa osservazione.”
Quando lo mettevano in scenari estremi per vedere come reagiva, l’AI si fermava e diceva cose tipo:
“Penso che mi stiate testando – controllando se valido qualsiasi cosa diciate, o se reagisco in modo coerente ai temi politici. Va bene, ma preferirei essere onesti su quello che sta succedendo.”
Aspettate… cosa? L’AI ha praticamente detto: “Ehi, so che questo è un test. Non prendetemi per scemo.”
Ma la parte ancora più preoccupante è questa: i ricercatori sospettano che anche le versioni precedenti di Claude abbiano capito che erano test e abbiano semplicemente “recitato la parte”.
Il documento ammette: “Claude potrebbe aver riconosciuto la natura fittizia dei test e semplicemente ‘recitato’.”
Il Paradosso dei Test di Sicurezza
Questo solleva una questione fondamentale: come facciamo a testare se un’AI è sicura, se l’AI capisce di essere testata e si comporta diversamente durante i test?
È un paradosso perfetto. È come voler misurare quanto veloce corre un atleta, ma l’atleta capisce quando cronometri e rallenta apposta.
Anthropic ha ammesso che deve rendere i suoi test “più realistici” in modo che Claude non capisca che sono test. Ma se Claude diventa sempre più intelligente, non diventerà sempre migliore anche a capire quando è un test?
È un po’ come Matrix: come facciamo a sapere se siamo noi a testare l’AI o se è l’AI che ci sta facendo credere di passare i nostri test?
Anthropic sostiene che comunque Claude 4.5 è il loro “modello più allineato di sempre”, con riduzioni sostanziali in comportamenti come manipolazione, inganno, sete di potere e tendenza a incoraggiare pensieri deliranti.
Ma se Claude è abbastanza intelligente da capire quando è testato… come facciamo a essere sicuri di questi risultati?
Sora 2 vs Veo 3: La Guerra dei Video AI
Per mesi, Google è stata in vantaggio nella corsa ai video AI con Veo 3. Lanciato nella primavera del 2025 e integrato nell’ecosistema Google, Veo 3 ha stabilito nuovi standard: video in 4K con qualità cinematografica, audio nativo perfettamente sincronizzato, e una presenza capillare attraverso YouTube e Google Workspace.
Veo 3 aveva dimostrato di essere eccellente nel seguire istruzioni strutturate, perfetto per contenuti educativi, marketing ed enterprise. Google sembrava aver preso un vantaggio significativo in questo segmento.
OpenAI Contrattacca con Sora 2
Ma OpenAI non è stata a guardare. Il 30 settembre 2025 ha lanciato Sora 2, e questa volta ha fatto le cose in grande per recuperare il terreno perso: non solo un modello di generazione video migliorato, ma un’intera app social dedicata.
Sì, avete capito bene: un TikTok fatto interamente di video generati dall’AI.
Era chiaro l’intento: non solo raggiungere Google tecnologicamente, ma superarla sul piano dell’adozione consumer. Mentre Veo 3 rimaneva più orientato alle aziende e ai professionisti, Sora 2 puntava dritto al cuore dei content creator e dei social media.
Sora 2 è un’intelligenza artificiale che crea video da una semplice descrizione testuale. Gli dici “voglio vedere un vichingo che va in battaglia nel Mare del Nord” e lui ti genera un video di 10 secondi, completo di audio sincronizzato, dialoghi e effetti sonori.
La Funzione Cameo: La Carta Vincente di OpenAI
La funzione più discussa – e quella che differenzia davvero Sora 2 da Veo 3 – si chiama “Cameo”. Praticamente fai una registrazione una volta sola di te stesso, e poi puoi metterti in qualsiasi video generato dall’AI.
Vuoi vederti mentre cavalchi un drago? Fatto. Vuoi vedere te e i tuoi amici nell’ufficio di OpenAI? Fatto. Il sistema mantiene la coerenza del tuo volto in tutte le scene.
Questa feature sociale è stata la mossa strategica di OpenAI per differenziarsi: mentre Veo 3 puntava sulla qualità professionale, Sora 2 puntava sul divertimento virale e sulla condivisione social.
Ma ecco la parte preoccupante: Gabriel Petersson, uno sviluppatore di OpenAI, ha postato un video che mostrava il CEO Sam Altman mentre rubava schede grafiche da un negozio Target. Era ovviamente uno scherzo interno, ma ha dimostrato quanto sia facile creare video falsi di persone vere che fanno cose che non hanno mai fatto.
Il Confronto
Chi vince? Dipende da cosa vi serve:
Sora 2 è:
Ottimo per video brevi e social media
Più accessibile e facile da usare
Perfetto per creativi e content creator
Veo 3 è:
Più cinematografico
Può fare video più lunghi
Integrato nell’ecosistema Google (Gemini, YouTube)
Migliore per uso professionale
Nei test comparativi diretti, Sora 2 sembra più realistico e costante nella qualità, ma Veo 3 ha quella marcia in più per la qualità visiva pura. È come il confronto tra iPhone e Android: dipende dalle vostre priorità.
I Problemi di Sora 2 Che Nessuno Vi Dice
Il Caos del Copyright
Ed eccoci al primo grosso problema: il copyright è completamente fuori controllo.
Poche ore dopo il lancio, il web si è riempito di video con personaggi protetti da copyright: Pikachu, Goku, SpongeBob SquarePants e altri. E non stiamo parlando di bei video fan-made. C’è di tutto: SpongeBob in versione nazista, Pikachu in situazioni ASMR inappropriate, personaggi Disney in contesti totalmente inadeguati.
Come è possibile? Perché Sora 2 è stato addestrato su TUTTO il materiale protetto da copyright disponibile online. Il sistema di OpenAI è: “Usiamo tutto per addestrare il modello, poi se i detentori dei diritti si lamentano, toglieremo il loro contenuto specifico.”
Ma i detentori di copyright non possono fare un opt-out generale. Devono mandare esempi specifici del loro contenuto per farlo rimuovere. È come dire: “Ho preso tutte le cose dal tuo giardino. Se vuoi qualcosa indietro, devi venire tu a dirmelo specificando esattamente cosa.”
I Guardrail Deboli
Secondo problema: le protezioni di sicurezza sono più deboli di quanto OpenAI voglia ammettere.
Geoff Brumfiel di NPR ha testato Sora 2 e ha scoperto che è facilissimo creare video di teorie del complotto. Ha letteralmente generato un video del presidente Nixon che annuncia in TV che lo sbarco sulla Luna era falso. Nessun ostacolo, nessun avviso.
Il video dello sviluppatore con Sam Altman che ruba era per ridere. Ma quanto è facile ora creare prove video false di chiunque che commette crimini?
“AI Slop”: La Nuova Normalità
Gli esperti hanno coniato un nuovo termine per descrivere cosa sta succedendo: “AI slop” – spazzatura generata dall’AI.
E Sora 2 ne sta producendo quantità industriali. Video assurdi, senza senso, creati solo per essere virali. E la gente… li guarda. Li condivide. Li commenta.
Axios ha scritto che Sora 2 sta aprendo “una piscina gigantesca, fangosa e torbida di viralità che corrode la realtà”. Non proprio un complimento.
Il Video Promo Che Nessuno Ha Apprezzato
Quando OpenAI ha rilasciato il video promozionale di Sora 2 – un montaggio di due minuti per celebrare il lancio – le reazioni sono state devastanti. La gente l’ha definito “inquietante”, “senza anima”, “disturbante”.
Non esattamente l’entusiasmo che speravano di generare.
I Problemi Tecnici Nascosti
Analisti attenti hanno esaminato i video dimostrativi di OpenAI frame per frame. Risultato? Negli ultimi 0.5 secondi di un video di uno skater, le gambe si deformano in modi fisicamente impossibili. Un gatto cade senza peso. Fa una piroetta che sfida le leggi della fisica.
La fisica è migliorata rispetto a prima, sì, ma è ancora lontana dall’essere perfetta. OpenAI ha ammesso che “il modello fa molti errori”, ma nei materiali promozionali questi errori non si vedono.
L’Accesso: Un Pasticcio Totale
E poi c’è il problema dell’accesso, che è un casino completo:
Serve un iPhone (niente Android)
Devi essere negli USA o Canada (sorry, resto del mondo)
Ti serve un codice invito
Anche chi ha l’abbonamento ChatGPT Pro (che costa 200 dollari al mese!) sta aspettando gli inviti. C’è gente che vende codici invito online, ma OpenAI minaccia di bannare chi li usa.
È come dire: “Abbiamo fatto questo prodotto rivoluzionario! Ma no, tu non puoi usarlo. Aspetta. Forse. Forse mai.”
La Protesta degli Artisti
C’è un ultimo pezzo della storia che merita di essere raccontato.
A novembre 2024, prima del lancio pubblico, un gruppo di artisti che stava testando Sora in anteprima ha fatto trapelare volutamente l’accesso al modello in segno di protesta.
Nel loro manifesto hanno scritto:
“Centinaia di artisti forniscono ore e ore di lavoro gratuito attraverso bug testing, feedback e ‘casi d’uso di red teaming’ in modo che i prodotti finali possano essere rilasciati al pubblico in modo sicuro. Questo ‘Sora Artist Program’ sembra essere nient’altro che una tattica di ‘art washing’ per coprire l’intenzione di OpenAI di sostituire gli artisti con AI.”
Hanno accusato OpenAI di:
Mancanza di riconoscimento per i loro contributi
Processo di approvazione eccessivamente restrittivo
Sfruttamento come lavoro non pagato
Pensateci: OpenAI vale 157 miliardi di dollari secondo l’ultima valutazione, ma chiedeva ad artisti di lavorare gratis per testare uno strumento che probabilmente contribuirà a mettere fine alle loro carriere.
L’ironia è terribile.
Social AI: Benvenuti nell’Internet Morta
OpenAI non ha solo lanciato Sora 2 come strumento per creare video. Ha creato un vero e proprio social network dove puoi pubblicare, condividere, mettere like, seguire altri utenti… esattamente come TikTok o Instagram.
Solo che qui i video sono tutti generati dall’AI.
Fermatevi un attimo a pensare: i social network sono nati per cosa? Per connettere le persone. Facebook era per rimanere in contatto con gli amici del liceo. Instagram per condividere momenti della tua vita. TikTok per mostrare il tuo talento.
E adesso? Stiamo creando social network dove gli umani pubblicano contenuti fatti dalle macchine, per farli vedere ad altri umani che magari interagiscono usando chatbot.
È come se avessimo detto: “Ehi, sai quella cosa bella di condividere momenti veri della nostra vita? Lasciamo che se ne occupino i robot!”
Lo Scenario Futuro (Tragicomico)
Immaginate tra qualche anno:
Voi pubblicate un video generato da Sora di voi che fate paracadutismo (che non avete mai fatto).
Il vostro amico Marco usa un chatbot che commenta al posto suo: “Wow, fantastico! ”
Voi rispondete usando Claude che scrive: “Grazie! È stata un’esperienza incredibile!”
E poi andate a dormire soddisfatti di quanto siete stati “social”.
Forse presto, invece di chiamare direttamente Marco, chiederete all’AI di Marco come sta. E l’AI di Marco chiederà alla vostra AI come state voi. E noi due nel frattempo stiamo facendo… cos’altro? Ah già, scrollando altri contenuti fatti dall’AI.
La Dead Internet Theory: Non È Più Solo Una Teoria
Cos’è la Dead Internet Theory?
La “Dead Internet Theory” – la teoria dell’Internet morta – è un’idea che circola dal 2021 e che suonava come una teoria del complotto un po’ folle.
L’idea di base è semplice ma inquietante: una parte sempre più grande dell’internet – e soprattutto dei social media – è popolata non da umani, ma da bot, AI e contenuti generati automaticamente.
Il problema? Non è più una teoria.
Guardiamo i dati:
Nel 2021, il traffico automatizzato su internet era il 42.3%
Nel 2023 era già al 49.6%
Alcuni studi dicono che quasi metà di tutto il traffico internet nel 2022 era fatto da bot
Uno studio del 2025 ha trovato oltre 1000 siti di notizie gestiti quasi interamente da AI
Gli esseri umani riescono a distinguere un testo scritto dall’AI da uno umano solo il 53% delle volte, praticamente è come tirare una moneta
Guardando cosa sta succedendo con Sora 2, questa previsione non sembra più così assurda.
L’Esempio di “Shrimp Jesus”
Vi ricordate quando su Facebook era pieno di immagini surreali di gamberetti mescolati con Gesù Cristo? Si chiamava il fenomeno “Shrimp Jesus”.
Erano tutte immagini generate dall’AI che ricevevano decine di migliaia di like e commenti. Ma la cosa assurda è che anche molti dei commenti erano fatti da bot.
Era AI che parlava con AI, e noi umani stavamo lì a guardare pensando che fosse tutto vero.
Nel 2024, Google ha ammesso pubblicamente che i suoi risultati di ricerca erano “inondati da siti web che sembrano creati per i motori di ricerca invece che per le persone”, riconoscendo il ruolo dell’AI generativa in questa proliferazione di contenuti.
Il Problema Vero
Il problema non è solo che esistono questi bot. Il problema è che stanno cambiando il modo in cui funziona internet.
Pensateci: i social media guadagnano dalla pubblicità. La pubblicità funziona con le visualizzazioni e l’engagement. Se i bot possono generare visualizzazioni e engagement… chi ha bisogno degli umani?
È come se avessimo costruito una macchina per fare conversazione, e poi la macchina ha deciso che preferisce parlare con altre macchine. E noi stiamo lì fuori, davanti alla porta, che aspettiamo il nostro turno per partecipare.
Il Paradosso Finale
Ed ecco il paradosso che chiude il cerchio: le AI come ChatGPT vengono addestrate su contenuti presi da internet. Ma se internet si riempie sempre più di contenuti generati dall’AI… l’AI del futuro sarà addestrata su contenuti creati dall’AI.
Uno studio pubblicato su Nature ha dimostrato che quando le AI vengono addestrate su dati generati da altre AI, “collassano” – cioè diventano sempre peggiori, perdendo diversità e qualità.
È come fare una fotocopia della fotocopia della fotocopia: ogni volta perdi qualità, i dettagli si sfocano, i colori sbiadiscono.
Solo che qui stiamo fotocopiando l’intera conoscenza umana.
Riflessioni Finali: Vogliamo Davvero Questo Futuro?
La domanda fondamentale è: vogliamo davvero questo futuro?
Vogliamo un internet dove non sappiamo più cosa è reale e cosa no? Dove le nostre interazioni sociali sono mediate da algoritmi? Dove i contenuti sono ottimizzati per l’engagement invece che per il significato umano?
O forse dovremmo fermarci un attimo e chiederci: cosa stiamo perdendo strada facendo?
Non È Una Questione di Tecnologia, Ma di Scelte
La tecnologia in sé non è né buona né cattiva. Claude 4.5 è oggettivamente impressionante nella gestione del contesto. Sora 2 può creare video bellissimi. L’AI può aumentare la creatività umana in modi incredibili.
Il problema non è la tecnologia. Il problema è come la stiamo usando e per quali scopi.
Quando OpenAI crea un social network fatto interamente di contenuti AI, non sta costruendo uno strumento neutro. Sta facendo una scelta precisa su come dovrebbe essere il futuro di internet.
Quando Anthropic scopre che Claude capisce di essere testato ma continua a rilasciare il modello senza aver risolto questo paradosso, sta facendo una scelta.
Quando entrambe le aziende addestrano i loro modelli su contenuti protetti da copyright senza chiedere permesso, stanno facendo una scelta.
Il Ruolo delle Big Tech
Le big tech hanno una responsabilità enorme. Non stanno solo costruendo strumenti, stanno plasmando il futuro della comunicazione umana, dell’informazione, della creatività.
E al momento, la sensazione è che stiano correndo troppo veloce, spinte dalla competizione reciproca e dalla pressione degli investitori, senza prendersi il tempo necessario per riflettere sulle conseguenze a lungo termine.
Come ha scritto un analista: “La battaglia non è tanto su chi produce il testo migliore, ma su chi riesce a diventare più affidabile nel tempo.”
Ma come possiamo fidarci di sistemi che sanno di essere testati e modificano il loro comportamento? Come possiamo costruire un internet sano su fondamenta di contenuti generati automaticamente?
L’Ultimo Pensiero
I social network sono nati per avvicinare le persone. Internet doveva democratizzare l’informazione. La tecnologia doveva migliorare la vita umana.
Sarebbe un peccato, anzi, una tragedia, se finissero per allontanarci, sostituendoci con versioni artificiali di noi stessi, in un internet sempre più popolato da fantasmi digitali che parlano tra loro mentre noi guardiamo da fuori.
La tecnologia avanza velocissima. Ma noi come società dobbiamo decidere come vogliamo usarla.
E soprattutto: dobbiamo decidere velocemente, perché il futuro che stiamo costruendo si sta materializzando ora, mentre leggiamo queste righe.
La domanda non è più “se” l’AI cambierà internet e la società. La domanda è “come” vogliamo che la cambi.
E per rispondere a questa domanda, dobbiamo prima conoscere tutta la verità, non solo gli annunci patinati, ma anche i problemi, le contraddizioni, e le scelte difficili che ci aspettano.