YouTube Shorts invasa dai video fatti con l'AI (mistergadget.tech)
Studio scioccante di Kapwing rivela che il 54% dei video mostrati dall’algoritmo di YouTube Shorts a nuovi utenti è AI slop o brainrot.
Se hai la sensazione che ci sia tantissima spazzatura generata dall’intelligenza artificiale su YouTube, è perché effettivamente ce n’è davvero tantissima. Questa non è solo un’impressione soggettiva o una lamentela di utenti particolarmente esigenti, ma il risultato di una nuova ricerca condotta dall’azienda di video editing Kapwing e riportata dal Guardian, che ha scoperto dati piuttosto allarmanti sulla qualità dei contenuti che l’algoritmo di YouTube Shorts propone agli utenti.
YouTube Shorts: 1 video su 5 è creato con l’AI
Lo studio ha rivelato che più di uno su cinque video che l’algoritmo di YouTube Shorts mostra ai nuovi utenti è costituito da contenuti di bassa qualità generati dall’intelligenza artificiale, comunemente conosciuti come “AI slop”. Si tratta di un termine che è diventato sempre più popolare nel corso del 2025 per descrivere quella massa di contenuti senza valore prodotti in serie da sistemi di intelligenza artificiale.
Stiamo parlando di video caratterizzati da scarsa originalità, errori evidenti e una generale mancanza di autenticità o utilità reale. Sono quei contenuti che vedi scorrere e ti chiedi chi mai possa averli creati e perché, salvo poi scoprire che nessun essere umano ci ha davvero lavorato sopra.
Una delle parti più interessanti e preoccupanti dello studio Kapwing riguarda l’analisi dei primi 500 video mostrati da un algoritmo di YouTube Shorts completamente nuovo e mai utilizzato prima. Di questi primi cinquecento video, ben 104 erano generati dall’intelligenza artificiale, e addirittura 165 erano classificabili come “brainrot”. Questo corrisponde rispettivamente a un impressionante 21 percento e 33 percento del totale.
Se combiniamo queste due categorie che spesso si sovrappongono, arriviamo alla conclusione scioccante che il 54% dei contenuti totali mostrati ai nuovi utenti rientra in queste categorie problematiche. Più della metà di quello che YouTube decide di mostrarti quando apri per la prima volta l’app è sostanzialmente immondizia digitale.
Il brainrot sta letteralmente corrodendo il cervello degli spettatori
Secondo la definizione fornita da Kapwing nel loro studio, il contenuto brainrot si riferisce a video nonsensical e di bassa qualità che creano l’effetto di corrodere lo stato mentale o intellettuale dello spettatore. Non è un’esagerazione retorica, ma una descrizione piuttosto accurata di quello che succede quando consumi questo tipo di contenuti per periodi prolungati.
In pratica si tratta di quei contenuti iperstimolanti ma privi di sostanza che catturano l’attenzione attraverso meccanismi psicologici semplici ma tremendamente efficaci, senza però fornire alcun valore educativo, informativo o di intrattenimento genuino. Sono progettati per hackerare il tuo cervello nel modo più efficiente possibile, sfruttando ogni trucco psicologico disponibile per tenerti incollato allo schermo.
Molto spesso i contenuti brainrot sono anch’essi generati dall’intelligenza artificiale, creando una sovrapposizione significativa tra le due categorie. Questo tipo di contenuto è particolarmente insidioso perché sfrutta i meccanismi di reward del cervello umano, rilasciando piccole dosi di dopamina attraverso stimoli rapidi e costanti, ma senza offrire assolutamente nulla di duraturo o significativo in cambio del tempo che stai investendo nella visione.
Il problema diventa ancora più grave quando consideriamo che YouTube Shorts è progettato specificamente per essere consumato in modalità binge-watching compulsivo, con un video che scorre automaticamente al successivo senza che l’utente debba fare letteralmente nulla. Questo significa che gli utenti, specialmente quelli più giovani o vulnerabili dal punto di vista psicologico, possono facilmente trovarsi intrappolati in un flusso infinito di contenuti di qualità sempre più bassa senza nemmeno rendersene conto completamente fino a quando non hanno sprecato ore intere della loro vita.
La Spagna è inspiegabilmente il paese più colpito dall’epidemia di AI slop
Naturalmente l’amore per l’AI slop varia significativamente a seconda del paese e della cultura locale. Kapwing ha scoperto che i canali di AI slop in Spagna hanno un totale combinato di ben 20,22 milioni di iscritti, più di qualsiasi altro paese al mondo. È un dato piuttosto sorprendente che solleva domande su cosa esattamente stia succedendo nel mercato spagnolo dei contenuti digitali.
Paradossalmente però la Spagna ha meno canali di AI slop tra i suoi top 100 canali rispetto ad altri paesi. Questo suggerisce che i canali spagnoli di AI slop, quando esistono, sono particolarmente popolari e riescono a concentrare grandi numeri di follower su pochi canali dominanti, piuttosto che avere una distribuzione più frammentata come in altri mercati.
Gli Stati Uniti hanno invece nove canali tra i loro top 100 canali, e si classificano al terzo posto per numero di iscritti ai canali slop con 14,47 milioni di persone. Questa distribuzione geografica dimostra in modo inequivocabile che il fenomeno dell’AI slop non è affatto limitato a una singola cultura o area linguistica, ma rappresenta davvero un problema globale che affligge la piattaforma YouTube in praticamente tutti i mercati principali dove opera.
Le differenze regionali potrebbero essere spiegate da vari fattori complessi e interconnessi. Potrebbero esserci barriere linguistiche che rendono più difficile per gli algoritmi di moderazione di YouTube identificare contenuti problematici in alcune lingue meno diffuse o con strutture grammaticali complesse. Potrebbero esistere differenze culturali sostanziali nel modo in cui gli utenti di paesi diversi interagiscono con i contenuti video brevi e con gli algoritmi di raccomandazione.
Potrebbe anche riflettere semplicemente dove gli operatori di questi canali slop hanno deciso di concentrare strategicamente i loro sforzi basandosi su analisi approfondite di redditività, facilità di monetizzazione e livelli di competizione nei vari mercati geografici.
Tutte le piattaforme social stanno annegando nell’AI slop
YouTube non è certamente l’unica piattaforma di social media il cui contenuto sta sprofondando nelle profondità della disperazione dell’AI slop, ma lo studio Kapwing rende assolutamente chiaro e incontrovertibile che questo tipo di contenuto non sta andando da nessuna parte. Anzi, tutte le evidenze disponibili suggeriscono che il fenomeno è destinato soltanto a crescere esponenzialmente nei prossimi mesi e anni.
Dagli animali completamente falsi e fisicamente impossibili che appaiono in presunte riprese di telecamere di sorveglianza presentate come autentiche, a macchinari pesanti che puliscono magicamente i cirripedi dalle balene in video completamente inventati dall’intelligenza artificiale e presentati come documentari sulla natura, il fenomeno si sta espandendo in modi sempre più creativi, sofisticati e francamente ingannevoli.
Il problema è che questi contenuti spesso ricevono livelli di engagement assolutamente significativi proprio perché sono così assurdi, emotivamente manipolativi o progettati per suscitare reazioni viscerali negli spettatori. E questo alto engagement incoraggia inevitabilmente gli algoritmi delle piattaforme a promuoverli ancora di più, creando un circolo vizioso devastante.
La situazione solleva domande estremamente serie sulla responsabilità delle piattaforme nel moderare efficacemente i contenuti generati dall’intelligenza artificiale. YouTube e le altre piattaforme social si trovano in una posizione tremendamente difficile e probabilmente insostenibile nel lungo termine. Da un lato devono assolutamente proteggere gli utenti da contenuti di bassa qualità o potenzialmente dannosi per la salute mentale e il benessere psicologico.
Dall’altro lato però non vogliono assolutamente soffocare la creatività genuina degli utenti o creare sistemi di moderazione così rigidi e draconiani da risultare oppressivi e dannosi per i creator legittimi che producono contenuti di valore. Trovare il giusto equilibrio tra queste due esigenze contrapposte è estremamente difficile, specialmente quando i creatori di AI slop diventano sempre più sofisticati nel nascondere la natura completamente artificiale dei loro contenuti e nell’aggirare sistematicamente i sistemi di rilevamento automatico che le piattaforme implementano.