10 Jul, 2025 - 17:17

Contenuti digitali AI: il fenomeno di Skibidi Boppy e Forza Napoli

In collaborazione con
Stefania Cardellicchio
Contenuti digitali AI: il fenomeno di Skibidi Boppy e Forza Napoli

L’intelligenza artificiale sta cambiando il modo in cui creiamo contenuti digitali, dando vita a video virali che spopolano su TikTok e YouTube. Fenomeni come “Skibidi Boppy” o clip con anziani che chiudono con frasi come “Forza Napoli” e cadute in acqua stanno conquistando milioni di visualizzazioni. Ma come nascono questi video? E quali sono i rischi dietro l’ilarità?

Come l’AI crea video virali: da Skibidi Boppy alle interviste finte

Grazie a strumenti come ChatGPT e software di video editing AI, creare contenuti accattivanti è diventato facile e veloce. I video “Skibidi Boppy”, ispirati al fenomeno “Skibidi Toilet”, usano l’AI per generare animazioni surreali o montaggi con anziani che sembrano intervistati, ma le loro voci sono sintetiche, spesso doppiate artificialmente. Le clip finiscono con frasi come “Forza Napoli” o cadute in acqua aggiunte digitalmente, creando un effetto comico che diventa virale. Secondo Reuters Institute, il 50% degli utenti conosce strumenti AI come ChatGPT, ma solo una minoranza li usa, lasciando ai creator il compito di cavalcare l’onda della viralità. Questi video, però, non sono sempre innocui. L’AI attinge a dati online, spesso mescolando stereotipi (es. anziani “buffi”) per creare narrazioni che sembrano vere ma sono finte. ACM avverte che questo tipo di misinformazione visiva può confondere il pubblico, rendendo difficile distinguere realtà e finzione.

L’IA e il prezzo dell’ilarità: etica e impatto sociale

I video con anziani che gridano “Forza Napoli” o cadono in acqua possono far ridere, ma sollevano problemi etici. Mostrare persone anziane in situazioni ridicole, anche se generate dall’AI, può alimentare l’ageismo, come evidenziato da The Gerontologist. La facilità di creare contenuti sintetici rischia di minare la fiducia nei media digitali, con solo il 5% degli utenti contrario a etichettare i contenuti AI, secondo Reuters. Inoltre, l’AI non coglie il contesto emotivo, producendo video che possono sembrare insensibili, come sottolineato da TechTarget. Mentre gli utenti si divertono, c’è chi critica questi contenuti per il loro impatto su gruppi vulnerabili. L’AI può creare contenuti responsabili? Questi questi video sono solo un gioco, o c’è un limite da rispettare?

A cura di Stefania Cardellicchio

LEGGI ANCHE