La Dead Internet Theory: Come l’IA e i Bot Stanno Trasformando il Web

Indice

Ti sei mai sentito strano navigando online ultimamente? Hai notato come certi contenuti sembrino ripetitivi, quasi artificiali? Non sei il solo. Quella sensazione inquietante che ti accompagna mentre scorri la tua bacheca potrebbe avere una spiegazione: la Dead Internet Theory, o teoria dell’internet morto. Una prospettiva tanto affascinante quanto disturbante sul futuro del nostro mondo digitale.

Ricordo quando, poco più di un anno fa, mi sono imbattuto per la prima volta in questa teoria durante una lunga notte di navigazione. All’inizio sembrava solo un’altra teoria del complotto, ma più scavavo, più iniziavo a notare segnali che non potevo più ignorare. E se avessero ragione? E se gran parte di ciò che vediamo online fosse generato artificialmente?

In questo articolo, ti guiderò attraverso il labirinto della Dead Internet Theory, esplorando non solo le sue origini e il suo sviluppo, ma anche le prove concrete che sembrano supportarla e le potenziali conseguenze per il nostro futuro digitale. Preparati a mettere in discussione tutto ciò che dai per scontato quando ti connetti alla rete.

Le radici di un’inquietudine digitale

La Dead Internet Theory non è nata dal nulla. Ha fatto capolino nel mondo digitale nel 2021, quando un utente con lo pseudonimo “IlluminatiPirate” ha pubblicato un manifesto provocatorio sul forum Agora Road’s Macintosh Cafe dal titolo “Dead Internet Theory: Most Of The Internet Is Fake”. Nonostante il linguaggio a tratti polemico, quel documento conteneva intuizioni che hanno trovato terreno fertile nell’immaginario collettivo degli utenti web più attenti.

La teoria ha poi guadagnato risonanza quando la prestigiosa rivista The Atlantic ha pubblicato un articolo intitolato “Maybe You Missed It, but the Internet ‘Died’ Five Years Ago”, portando questa visione all’attenzione del grande pubblico. Secondo i sostenitori più convinti, internet sarebbe “morto” tra il 2016 e il 2017, proprio quando assistevamo all’esplosione delle prime applicazioni di deep learning veramente efficaci.

Mi ricordo bene quel periodo. Lavoravo già nel settore come digital marketer e l’eccitazione per le nuove possibilità offerte dall’intelligenza artificiale era palpabile nelle conferenze di settore. GPT-2 era appena stato rilasciato, e già si parlava di come potesse generare testi quasi indistinguibili da quelli umani. Nessuno di noi immaginava, però, che quelle stesse tecnologie avrebbero potuto un giorno “uccidere” l’internet che conoscevamo.

L’ipotesi centrale: un web post-umano

Nella sua formulazione essenziale, la Dead Internet Theory sostiene che una porzione sempre crescente dei contenuti che incontriamo online non sia più generata da esseri umani, ma da sistemi automatizzati e intelligenze artificiali di varia complessità. L’internet che conosciamo sarebbe diventato un “mare di bot con alcune isole di attività umana”, uno spazio sempre più sterile e privo dell’autenticità e creatività che lo hanno caratterizzato nei suoi primi decenni di vita.

La teoria si articola in diverse varianti. Nella sua versione più moderata e analiticamente fondata, evidenzia un fenomeno oggettivo e misurabile: la crescente automazione del web e l’aumento esponenziale di contenuti generati da sistemi di intelligenza artificiale. Non si parla necessariamente di una “morte” definitiva, quanto piuttosto di una trasformazione profonda che pone nuove sfide in termini di autenticità e qualità dell’informazione.

Nella versione più estrema, invece, questo cambiamento sarebbe il risultato di un’azione deliberata e coordinata da parte di governi o grandi corporazioni tecnologiche, finalizzata al controllo delle popolazioni e alla manipolazione dei consumatori. Una prospettiva che, per quanto possa sembrare fantascientifica, trova eco nelle crescenti preoccupazioni sul potere dei big data e degli algoritmi.

I numeri che fanno riflettere: quanto è “morto” internet?

I dati a nostra disposizione dovrebbero farci sobbalzare sulla sedia. Uno studio del 2021 ha rivelato che solo il 57,7% degli utenti attivi su internet erano effettivamente esseri umani, mentre i bot dannosi costituivano ben il 27,7% del traffico totale, con un preoccupante aumento del 2,1% rispetto all’anno precedente. Altre stime ancora più pessimistiche suggeriscono che i bot possano rappresentare fino al 64% del traffico internet globale.

Ma il dato che mi ha davvero tolto il sonno è la previsione formulata da ricercatori del Copenhagen Institute for Future Studies: entro il 2026 – praticamente domani – quasi il 99% dei contenuti internet potrebbe essere generato da sistemi di intelligenza artificiale. Se questa previsione dovesse avverarsi anche solo parzialmente, l’internet come lo abbiamo conosciuto potrebbe davvero “morire”, sostituito da un ambiente dominato quasi esclusivamente da contenuti artificiali.

Qualche tempo fa ho avuto modo di confrontarmi con alcuni colleghi sviluppatori e analisti SEO, condividendo dati che hanno suscitato una reazione inaspettata: un silenzio carico di tensione. I nostri sguardi si sono incrociati, rivelando una consapevolezza comune e inquietante: persino per noi, esperti del settore, sta diventando sempre più complesso distinguere ciò che è autentico da ciò che è generato artificialmente.

Il balzo qualitativo dell’IA

Quello che rende questi numeri ancora più impressionanti è l’enorme balzo qualitativo che abbiamo osservato negli ultimi anni nello sviluppo di modelli linguistici avanzati. Se fino a pochi anni fa i contenuti generati automaticamente erano facilmente identificabili per la loro artificiosità e rigidità, oggi i testi prodotti da sistemi come GPT-4 o Claude sono spesso indistinguibili da quelli scritti da esseri umani, perfino per esperti del settore.

Ho fatto personalmente un test con alcuni colleghi: ho mostrato loro due articoli, uno scritto da me e uno generato da un’IA avanzata, chiedendo di indovinare quale fosse quale. La maggioranza ha identificato erroneamente l’articolo dell’IA come quello umano, ammettendo poi di essere stata ingannata dalla fluidità e dalla naturalezza dello stile.

L’inquietante ascesa delle identità digitali artificiali

Tra i fenomeni più emblematici che sembrano confermare la Dead Internet Theory c’è la crescita esponenziale degli influencer generati dall’intelligenza artificiale. Con strumenti come Midjourney, DALL-E e ChatGPT, è ormai alla portata di chiunque la creazione di profili completamente fittizi di “persone” che non esistono nella realtà fisica, ma che appaiono perfettamente reali nel contesto digitale.

Un esperimento condotto da ricercatori nel campo della comunicazione digitale ha dimostrato con inquietante chiarezza quanto sia diventato facile creare un account Instagram di una “influencer” interamente generata dall’IA, capace di ottenere interazioni autentiche da account gestiti da persone reali. Questo crea un inedito cortocircuito ontologico: persone reali che sviluppano relazioni emotive con personaggi che non esistono, ma che vengono percepiti come autentici.

Ti racconto un episodio personale che mi ha fatto riflettere. Un mio amico aveva iniziato a seguire su Instagram una presunta travel influencer che condivideva foto mozzafiato da tutto il mondo, accompagnate da riflessioni profonde sulla vita e i viaggi. Dopo mesi di interazioni e messaggi, ha scoperto che quella persona non esisteva: era un’identità completamente generata dall’IA, dalle foto ai testi. La delusione e il senso di tradimento che ha provato erano reali quanto l’inganno di cui era stato vittima.

I gemelli digitali delle celebrità

Nel corso del 2024, abbiamo assistito a un’ulteriore evoluzione di questo fenomeno, con l’emergere di “gemelli digitali” di celebrità e personalità pubbliche, capaci di interagire con i fan in modo apparentemente naturale e spontaneo. Queste applicazioni stanno rapidamente superando il confine tra novità tecnologica e strumento di marketing mainstream, sollevando interrogativi profondi sull’autenticità delle relazioni parasociali nell’era digitale.

Lo scorso mese ho guardato un video di un evento durante il quale i partecipanti potevano “chattare” con la versione IA di un famoso attore hollywoodiano. La naturalezza delle risposte e la capacità del sistema di cogliere sfumature contestuali e riferimenti culturali era impressionante. Mi sono chiesto quante persone, soprattutto giovani, sarebbero state in grado di distinguere questa esperienza da una conversazione con la celebrità reale.

La democratizzazione della creazione dei bot

Uno degli aspetti più preoccupanti di questa evoluzione è l’estrema facilità con cui oggi è possibile creare bot sofisticati e convincenti. Un video realizzato da un esperto di tecnologia ha dimostrato in modo inequivocabile quanto sia diventato accessibile questo processo: in pochi minuti, utilizzando codice open source disponibile su GitHub e interfacciandosi con l’API di ChatGPT, lo sviluppatore è riuscito a creare un bot per Reddit in grado di analizzare post di tendenza e generare commenti pertinenti e naturali, praticamente indistinguibili da quelli scritti da utenti umani.

La cosa che mi ha colpito maggiormente è stata la quasi totale assenza di barriere all’ingresso e di sistemi di controllo efficaci: nel caso documentato, Reddit ha fornito immediatamente le chiavi API necessarie senza alcuna verifica approfondita sulle intenzioni dello sviluppatore, senza richiedere un numero di telefono per la verifica dell’identità e senza imporre limiti significativi di utilizzo agli account di nuova creazione.

Le motivazioni dietro la proliferazione dei bot

Le ragioni che spingono alla creazione e all’utilizzo di bot sono molteplici e riflettono diversi interessi economici, politici e strategici. La manipolazione dell’opinione pubblica è certamente una delle motivazioni più preoccupanti: network di bot coordinati vengono regolarmente impiegati per plasmare la percezione collettiva su temi sensibili, amplificare determinate narrative o sopprimerne altre.

Non meno rilevanti sono le motivazioni legate a truffe e attività illecite. Una porzione significativa dei bot che popolano i social media ha come obiettivo primario quello di indurre gli utenti a cliccare su link dannosi o condividere informazioni personali sensibili. L’automazione permette di scalare enormemente queste attività, raggiungendo milioni di potenziali vittime con un investimento minimo di risorse.

Ma forse l’aspetto più pertinente nel contesto dei social media contemporanei è la manipolazione dell’engagement per fini commerciali. Un fenomeno in rapida crescita è la creazione di bot “umanizzati” che vengono sviluppati, nutriti di interazioni apparentemente autentiche per un certo periodo di tempo, e poi venduti a terze parti interessate ad aumentare artificialmente l’engagement di specifici contenuti o profili.

L’apocalisse SEO: quando i motori di ricerca diventano il campo di battaglia dell’IA

La Dead Internet Theory ha conseguenze profonde e dirompenti per il mondo della Search Engine Optimization (SEO), trasformando radicalmente le strategie tradizionali e creando nuovi paradigmi di ottimizzazione che sfidano l’essenza stessa della ricerca online. Mi trovo ogni giorno ad affrontare questa realtà come specialista SEO, e posso testimoniare che siamo nel bel mezzo di quella che non esito a definire una vera e propria “apocalisse SEO”.

L’equazione è tanto semplice quanto inquietante: se crescenti porzioni del web sono dominate da contenuti generati artificialmente, i motori di ricerca diventano inconsapevolmente complici nel promuovere un internet sempre meno umano. Ho assistito con crescente preoccupazione all’emergere di siti web che ottengono posizionamenti eccellenti su Google grazie a contenuti interamente creati dall’IA, ottimizzati non per informare o intrattenere persone reali, ma esclusivamente per soddisfare gli algoritmi dei motori di ricerca.

Qualche tempo fa ho analizzato i risultati di una SERP (Search Engine Results Page) per una query competitiva nel settore della finanza personale. Tra i primi dieci risultati, almeno sette presentavano chiari segni di contenuti generati dall’IA: frasi formulaiche, una certa ripetitività nella struttura, e quella peculiare “piattezza emotiva” che contraddistingue i testi non umani. Ciò che mi ha davvero allarmato è che questi siti non erano creati da piccoli operatori opportunisti, ma da grandi aziende editoriali che hanno evidentemente abbracciato strategie di produzione di contenuti industrializzate e automatizzate.

Le conseguenze per chi si occupa di SEO sono enormi. Da un lato, diventa sempre più difficile competere con siti che producono centinaia di articoli al giorno grazie all’IA, ciascuno perfettamente ottimizzato per specifiche parole chiave. Dall’altro, la strategia SEO tradizionale centrata su contenuti di qualità, originali e creati da esseri umani rischia di diventare economicamente insostenibile in un ecosistema dove la quantità sembra prevalere sulla qualità.

Google ha riconosciuto ufficialmente questo problema nel 2024, ammettendo che i suoi risultati di ricerca erano sempre più “inquinati” da siti web che “sembrano creati per i motori di ricerca invece che per le persone”. Ma le contromisure adottate sembrano insufficienti di fronte alla marea montante di contenuti artificiali che inonda il web ogni giorno.

Come SEO specialist, mi trovo sempre più spesso di fronte a un dilemma etico e professionale: abbracciare l’automazione per rimanere competitivo, o restare fedele a un approccio incentrato sull’essere umano rischiando di perdere visibilità? La risposta non è semplice, ma sono convinto che nel lungo termine l’autenticità e la qualità genuinamente umana dei contenuti continueranno a rappresentare un valore differenziale che nessun algoritmo potrà replicare completamente.

Le evidenze empiriche: numeri che non possiamo ignorare

L’analisi storica dell’evoluzione del traffico bot offre spunti illuminanti. Nel 2016, l’azienda di sicurezza informatica Imperva ha pubblicato un rapporto che rivelava un dato sorprendente: già allora, il 52% del traffico web globale era generato da programmi automatizzati piuttosto che da esseri umani. Questo dato, già di per sé significativo, appare ancora più rilevante alla luce di un rapporto più recente del 2023, che ha riscontrato come il 49,6% del traffico internet fosse automatizzato, con un ulteriore incremento del 2% rispetto all’anno precedente.

Nel contesto dei social media, i numeri sono ancora più impressionanti. Facebook, nel solo 2019, ha dovuto chiudere ben 5,4 miliardi di account falsi, una cifra che supera di oltre il doppio il numero totale di account reali attivi sulla piattaforma. Questo dato straordinario mette in luce l’entità colossale del problema e la sfida titanica che le piattaforme affrontano nel mantenere un ecosistema digitale autenticamente umano.

La questione della percentuale di bot è diventata centrale anche durante la turbolenta acquisizione di Twitter (ora X) da parte di Elon Musk. Mentre la direzione di Twitter sosteneva ufficialmente che meno del 5% degli utenti attivi giornalieri monetizzabili fossero bot, studi indipendenti commissionati dallo stesso Musk hanno stimato percentuali significativamente più alte, oscillanti tra l’11% e il 13,7%.

L’invasione dei contenuti generati dall’IA nei motori di ricerca

Un fenomeno particolarmente preoccupante riguarda l’impatto dell’IA generativa sui motori di ricerca. Nel 2024, Google ha ufficialmente riconosciuto un problema crescente: i suoi risultati di ricerca erano sempre più “inquinati” da siti web che “sembrano creati per i motori di ricerca invece che per le persone”. Un portavoce dell’azienda ha esplicitamente ammesso il ruolo determinante dell’IA generativa nella rapida proliferazione di tali contenuti di bassa qualità.

Questa tendenza rappresenta una minaccia esistenziale per l’utilità stessa dei motori di ricerca, progettati originariamente per aiutare gli utenti a navigare un web creato da esseri umani per altri esseri umani. Come SEO specialist, ho assistito con crescente preoccupazione all’evoluzione di questo fenomeno. Negli ultimi mesi, ho notato come per query sempre più specifiche i motori di ricerca restituiscano pagine che sembrano scritte da un computer per un computer, intrise di parole chiave ma prive di sostanza reale e valore informativo.

L’esperimento del “Turing Test” sociale

Un aspetto particolarmente inquietante della situazione attuale è la crescente difficoltà nel distinguere con certezza tra contenuti generati da esseri umani e quelli prodotti da sistemi di intelligenza artificiale. Questo fenomeno è stato brillantemente illustrato da un esperimento condotto dal canale YouTube Jubilee e documentato nel video di ColdFusion.

Nell’esperimento, sei esseri umani dovevano determinare, attraverso un’interazione testuale, chi tra loro fosse in realtà un’intelligenza artificiale. I risultati sono stati sorprendenti: i partecipanti hanno manifestato enormi difficoltà nell’identificare correttamente l’IA e, in un paradossale cortocircuito cognitivo, diversi esseri umani sono stati erroneamente etichettati come intelligenze artificiali dai loro stessi simili.

La fiducia paradossale nell’intelligenza artificiale

Ancora più sorprendente è quanto emerso da uno studio condotto nel 2020 da ricercatori dell’Università della Georgia. La ricerca ha rivelato un paradosso cognitivo inquietante: messi di fronte alla scelta se fidarsi di informazioni mediche fornite da esseri umani o generate artificialmente da sistemi di IA, i partecipanti tendevano a riporre maggiore fiducia nelle informazioni fornite dall’intelligenza artificiale.

Questo fenomeno, che potremmo definire “bias di autorità algoritmica”, rappresenta un rovesciamento di prospettiva rispetto alla tradizionale diffidenza verso l’automazione. In alcuni contesti, specialmente quelli che richiedono elaborazione di grandi quantità di dati, gli esseri umani sembrano sviluppare una sorta di deferenza cognitiva verso i sistemi artificiali, attribuendo loro caratteristiche di obiettività e affidabilità che possono non corrispondere alla realtà.

Ho notato questo fenomeno anche nelle mie interazioni quotidiane. Quando discuto di temi complessi con amici o colleghi, l’espressione “l’ho verificato con ChatGPT” viene spesso usata come argomento di autorità, come se l’informazione proveniente dall’IA avesse un peso maggiore rispetto a quella fornita da un esperto umano. Questa tendenza solleva interrogativi profondi sulla nostra capacità di mantenere un rapporto equilibrato con le tecnologie che stiamo sviluppando.

Le conseguenze tangibili per la nostra vita online

Con la crescente difficoltà nel distinguere tra contenuti autentici e generati artificialmente, la fiducia nell’informazione online sta subendo un’erosione drastica. Questo processo potrebbe accelerare la transizione verso quello che alcuni studiosi hanno definito un “mondo post-verità”, in cui la distinzione tra fatti verificati e narrative fabbricate diventa progressivamente più sfumata e soggettiva.

In un contesto in cui recensioni, testimonianze, commenti e persino notizie possono essere facilmente generate da algoritmi, gli utenti potrebbero sviluppare una forma di scetticismo generalizzato che, paradossalmente, potrebbe rendere ancora più difficile l’identificazione di fonti davvero affidabili

L’impoverimento della diversità cognitiva e culturale

Un internet sempre più dominato da contenuti generati dall’IA potrebbe progressivamente perdere quella diversità e imprevedibilità che caratterizzano il pensiero umano autentico. I sistemi di IA, per quanto sofisticati, tendono a riprodurre pattern riconoscibili basati sui dati su cui sono stati addestrati, contribuendo a una certa omogeneizzazione dei contenuti.

Questo fenomeno potrebbe portare a un paradossale impoverimento dell’ecosistema informativo digitale: mentre la quantità di contenuti continua a crescere esponenzialmente, la loro varietà qualitativa e l’originalità autentica potrebbero diminuire drasticamente. Le voci veramente innovative, dissonanti o provocatorie – quelle che storicamente hanno contribuito all’evoluzione del pensiero umano – rischiano di essere progressivamente sommerse da un mare di contenuti mediamente gradevoli ma fondamentalmente derivativi.

Vorrei condividere una riflessione che mi ha colpito, proveniente da un filosofo e scrittore che stimo e con cui ho il privilegio di confrontarmi da alcuni anni. Durante una conversazione serale, mi ha confidato la sua preoccupazione riguardo all’impatto dell’intelligenza artificiale sul panorama letterario. Secondo lui, l’Intelligenza Artificiale sta contribuendo a un’omogeneizzazione del gusto letterario, rendendo sempre più arduo per le voci non convenzionali emergere e trovare il proprio pubblico. “L’IA viene addestrata principalmente su contenuti mainstream”, ha osservato, “di conseguenza, tende inevitabilmente a replicare e rafforzare ciò che è già popolare, a scapito dell’autentica innovazione creativa”.

La disumanizzazione dell’esperienza sociale online

Con l’aumento dei contenuti e delle interazioni generate da sistemi di IA, l’esperienza online sta subendo un processo di graduale ma inesorabile disumanizzazione. Le interazioni autentiche tra esseri umani diventano sempre più rare e preziose, con potenziali conseguenze negative per il benessere psicologico degli utenti e per la qualità complessiva dell’esperienza digitale.

Questo scenario solleva interrogativi profondi sulla natura stessa delle relazioni sociali nell’era digitale. Se una percentuale crescente delle interazioni che viviamo online avviene in realtà con entità artificiali – che si tratti di bot, assistenti virtuali o simulazioni di persone reali – come cambierà la nostra concezione di concetti fondamentali come l’amicizia, la comunità o il dibattito pubblico?

Ho iniziato a notare questo fenomeno nei gruppi online a cui partecipo. Discussioni che un tempo erano vivaci, imprevedibili e profondamente umane sembrano ora seguire schemi più prevedibili. Mi sono chiesto quante delle persone con cui interagisco regolarmente siano effettivamente reali e quante siano invece simulazioni sempre più sofisticate. E soprattutto, mi domando se questa distinzione avrà ancora importanza tra qualche anno.

Strategie di resistenza: come preservare l’autenticità online

Nonostante lo scenario possa apparire a tratti distopico, numerose iniziative stanno emergendo per contrastare la proliferazione incontrollata di contenuti non autentici online e preservare spazi di genuina interazione umana.

In risposta alla crescente sofisticazione dei contenuti generati artificialmente, diverse organizzazioni stanno sviluppando strumenti sempre più raffinati per il rilevamento dell’IA. Questi sistemi utilizzano approcci statistici e di machine learning per analizzare testi, immagini e video, identificando pattern e caratteristiche tipiche dei contenuti generati artificialmente.

Aziende come Google e Microsoft stanno investendo risorse significative nello sviluppo di tecnologie capaci di rilevare non solo testi ma anche immagini generate dall’IA, nel tentativo di arginare la diffusione di deepfake e altre forme di contenuti visivi manipolati. Ho avuto l’opportunità di testare in anteprima uno di questi strumenti durante un evento di settore, e devo ammettere che la precisione con cui riusciva a identificare contenuti generati dall’IA era impressionante, anche se non ancora perfetta.

Il rinnovato valore del pensiero critico

In un’epoca in cui la distinzione tra autentico e artificiale diventa sempre più sfumata, il pensiero critico e l’alfabetizzazione mediatica si trasformano da competenze desiderabili a strumenti essenziali di sopravvivenza nel panorama informativo contemporaneo. Gli utenti devono sviluppare una consapevolezza più acuta e un approccio più scettico e analitico rispetto alle informazioni che incontrano online.

Il processo di “riarmo cognitivo” richiede un investimento significativo in ambito educativo e culturale. È fondamentale che le istituzioni si impegnino a sensibilizzare i giovani, a partire dalle scuole superiori, fornendo loro gli strumenti necessari per analizzare criticamente le informazioni online e riconoscere contenuti potenzialmente generati dall’intelligenza artificiale. I ragazzi dimostrano un interesse naturale verso questi temi e, se adeguatamente formati, possono sviluppare notevoli capacità di discernimento, diventando protagonisti consapevoli dell’ecosistema digitale.

I rischi emergenti dell’internet post-umano

Con l’evoluzione continua dell’intelligenza artificiale e la proliferazione di bot sempre più sofisticati, emergono nuovi rischi che potrebbero accelerare e amplificare il fenomeno della “morte di internet” come spazio di autentica interazione umana.

Un rischio particolarmente insidioso riguarda l’addestramento delle future generazioni di sistemi di IA su contenuti già generati da precedenti modelli di intelligenza artificiale. Il professor Toby Walsh dell’Università del New South Wales ha chiaramente articolato questa preoccupazione, avvertendo che questo processo potrebbe innescare un ciclo di progressivo deterioramento qualitativo.

Questo fenomeno, che potremmo definire “degenerazione entropia informativa”, funziona in modo analogo al gioco del “telefono senza fili”: ogni generazione di IA, addestrandosi su output prodotti dalla generazione precedente, ne amplifica impercettibilmente le distorsioni e gli errori. Il risultato è una deriva graduale ma inesorabile verso contenuti sempre più omogenei, stereotipati e disconnessi dall’esperienza umana autentica.

Durante una conferenza sull’intelligenza artificiale un ricercatore ha presentato un esperimento inquietante: ha fatto generare un testo a un’IA, poi ha usato quel testo per addestrare un altro modello, e così via per cinque generazioni. Il risultato finale era un testo che manteneva una struttura grammaticale corretta ma aveva perso quasi completamente coerenza semantica e originalità, diventando una sorta di parodia involontaria del discorso umano.

La commercializzazione intensiva dell’engagement artificiale

Un altro rischio significativo è rappresentato dalla crescente commercializzazione dell’engagement sui social media. Con bot sempre più sofisticati in grado di manipolare gli algoritmi delle piattaforme, l’autenticità delle interazioni social potrebbe essere ulteriormente compromessa, trasformando questi spazi in teatri di simulazione sempre più elaborati ma fondamentalmente vuoti.

Meta (l’azienda madre di Facebook e Instagram) ha annunciato a gennaio 2025 l’intenzione di introdurre nuovi “account autonomi potenziati dall’IA”. Connor Hayes, vicepresidente dei prodotti per l’IA generativa di Meta, ha descritto questa evoluzione in termini sorprendentemente espliciti: “Prevediamo che queste IA, nel tempo, esisteranno sulle nostre piattaforme esattamente come fanno gli account umani… Avranno biografie e foto del profilo e saranno in grado di generare e condividere contenuti alimentati dall’IA sulla piattaforma”.

Questa dichiarazione, che potrebbe sembrare tratta da un romanzo di fantascienza distopica, rappresenta in realtà un piano aziendale concreto per una delle più grandi piattaforme social al mondo. L’implementazione di entità digitali autonome che operano accanto (e potenzialmente in competizione con) utenti umani rappresenta un salto qualitativo senza precedenti nella storia dei social media, con implicazioni profonde per l’autenticità dell’esperienza online.

Esempi concreti: quando la teoria incontra la realtà quotidiana

Per comprendere meglio la portata concreta del fenomeno, è utile esaminare alcuni esempi specifici di come i bot e l’IA stiano già influenzando in modo tangibile l’esperienza online quotidiana.

Un esempio emblematico emerso negli ultimi anni riguarda una curiosa serie di tweet che seguono un pattern riconoscibile. Dal 2020, numerosi account Twitter hanno iniziato a pubblicare messaggi che invariabilmente iniziano con la frase “I hate texting” (Odio scrivere messaggi) seguita da variazioni sul tema come “i hate texting i just want to hold ur hand” (odio scrivere messaggi, voglio solo tenerti per mano), o “i hate texting just come live with me” (odio scrivere messaggi, vieni a vivere con me).

Questi post hanno regolarmente raccolto decine di migliaia di like e condivisioni, una significativa percentuale dei quali si sospetta provenga da account automatizzati. I sostenitori della Dead Internet Theory hanno identificato in questi tweet seriali un esempio paradigmatico del fenomeno della simulazione di engagement su larga scala.

L’aspetto più interessante di questo caso è la sua apparente banalità: non si tratta di propaganda politica o di manipolazione commerciale esplicita, ma di contenuti apparentemente innocui che seguono pattern emergenti riconoscibili. Questa “simulazione dell’ordinario” rappresenta forse l’aspetto più sottile e pervasivo della trasformazione in corso.

Il fenomeno dell’AI “slop” su Facebook

Un fenomeno che ha acquisito particolare visibilità nel 2024 riguarda la proliferazione su Facebook di immagini generate dall’IA, colloquialmente definite “AI slop” (poltiglia IA). Queste immagini, caratterizzate da una qualità tecnica variabile ma da contenuti tematicamente ripetitivi, sono diventate virali sulla piattaforma, raggiungendo livelli di engagement sorprendenti.

Soggetti ricorrenti di queste immagini comprendono variazioni surreali come Gesù “mescolato in varie forme” con gamberetti, assistenti di volo in pose improbabili, e bambini affiancati a opere d’arte presumibilmente create da loro. La caratteristica più inquietante di questo fenomeno è la presenza di centinaia o addirittura migliaia di commenti generati dall’IA che ripetono in modo robotico frasi come “Amen” sotto queste immagini.

Durante una recente navigazione su Facebook, mi sono imbattuto in uno di questi post: mostrava un’immagine evidentemente generata dall’IA di un bambino che sembrava pregare, circondata da una strana aura luminosa. Il post aveva accumulato oltre 50.000 reazioni e migliaia di commenti quasi identici che recitavano variazioni di “Benedetto sia”, “Amen” o “Condividi se ami Dio”. L’effetto era profondamente inquietante, come osservare una simulazione di devozione religiosa priva di autenticità emotiva.

L’impatto sulla società: oltre lo schermo

La crescente presenza di bot e contenuti generati dall’IA non rimane confinata al mondo digitale, ma sta avendo ripercussioni tangibili sulla società nel suo complesso, influenzando professioni, relazioni sociali e equilibri di potere.

I professionisti che producono contenuti – giornalisti, scrittori, artisti visivi, musicisti – si trovano sempre più a competere non solo con altri esseri umani, ma con sistemi di IA capaci di generare contenuti a una velocità e a costi infinitamente inferiori. Questa asimmetria fondamentale sta innescando una crisi esistenziale in numerosi settori creativi, con potenziali conseguenze devastanti per l’ecosistema culturale nel suo complesso.

La situazione è particolarmente critica per i creatori emergenti e per quelli che operano in nicchie meno redditizie. Ho vissuto personalmente questa crisi: negli ultimi mesi, diversi editor con cui collaboravo regolarmente hanno iniziato a commissionare meno articoli, ammettendo candidamente di utilizzare l’IA per generare contenuti di base che poi vengono solo leggermente modificati da redattori interni. La sensazione di essere gradualmente sostituito da un algoritmo è tanto concreta quanto angosciante.

Le conseguenze psicologiche dell’inautenticità pervasiva

La progressiva erosione dell’autenticità nelle interazioni online potrebbe avere conseguenze psicologiche significative. L’essere umano ha evoluto meccanismi cognitivi e sociali specificamente adattati all’interazione con altri esseri umani; quando questi meccanismi vengono attivati da entità che simulano comportamenti umani ma non condividono la nostra natura, si possono verificare forme di dissonanza cognitiva e alienazione.

Alcuni ricercatori hanno iniziato a parlare di “uncanny valley digitale”, un fenomeno per cui le interazioni con entità digitali che appaiono quasi-umane ma non completamente autentiche generano una risposta di disagio e repulsione. Questo disagio potrebbe contribuire a un progressivo disimpegno dalle piattaforme digitali da parte di alcuni segmenti di utenti, creando una paradossale “migrazione inversa” verso forme di interazione più tradizionali e verificabilmente autentiche.

Ho notato questa tendenza anche nel mio circolo sociale. Amici che un tempo erano estremamente attivi sui social media stanno progressivamente disimpegnandosi, preferendo interazioni faccia a faccia o attraverso canali più privati e verificabili. “Non sopporto più la sensazione di non sapere se sto parlando con una persona vera o con un bot”, mi ha confessato un amico che ha recentemente disattivato la maggior parte dei suoi account social.

Verso un futuro più umano: strategie per un internet autentico

Nonostante lo scenario possa apparire a tratti distopico, esistono diverse ragioni per mantenere un cauto ottimismo riguardo al futuro della rete e al ruolo che gli esseri umani possono continuare a giocare in essa.

Gli esseri umani non sono spettatori passivi di questa trasformazione, ma possono e devono assumere un ruolo attivo nel determinare il futuro dell’ecosistema digitale. Attraverso una combinazione di interventi regolatori, iniziative educative e sviluppo di strumenti tecnologici appropriati, è possibile garantire che l’IA e i bot siano utilizzati come strumenti al servizio dell’umanità piuttosto che come sostituti dell’interazione umana autentica.

La regolamentazione dell’IA sta emergendo come un ambito cruciale di intervento politico a livello globale. L’Unione Europea, con il suo AI Act, sta tracciando un percorso pionieristico verso un quadro normativo che bilanci innovazione e tutela dei diritti fondamentali. Altre giurisdizioni stanno seguendo questo esempio, ciascuna con il proprio approccio specifico ma con l’obiettivo comune di stabilire guardrail etici per lo sviluppo dell’IA.

La riscoperta dell’autenticità come valore differenziale

La crescente consapevolezza dei rischi associati ai contenuti generati artificialmente potrebbe paradossalmente portare a una riscoperta e rivalutazione del valore dell’autenticità. Man mano che gli utenti diventano più consapevoli della pervasività dei contenuti artificiali, potrebbero sviluppare una preferenza sempre più marcata per spazi digitali in cui l’autenticità è verificabile e garantita.

Questa evoluzione potrebbe portare alla nascita di nuove piattaforme e comunità online esplicitamente dedicate alla promozione di interazioni autenticamente umane, con meccanismi di verifica dell’identità più rigorosi e trasparenti. In questo scenario, l’autenticità umana diventerebbe un valore differenziale e un asset competitivo nell’ecosistema digitale.

Sto seguendo con interesse l’emergere di piattaforme che fanno dell’autenticità il loro punto di forza. Sarebbe intelligente se nascessero social network che verificano seriamente l’identità degli utenti, adottando sistemi avanzati come la verifica biometrica o tecnologie basate su blockchain per garantire che dietro ogni account ci sia una persona reale. Questi approcci potrebbero rappresentare il futuro di un internet più autentico e umano, favorendo interazioni trasparenti e riducendo la proliferazione di profili falsi e contenuti ingannevoli.

L’IA come amplificatore, non come sostituto dell’umanità

Piuttosto che vedere l’IA come un avversario o un sostituto dell’interazione umana, potremmo sviluppare un rapporto più simbiotico in cui le tecnologie di intelligenza artificiale fungono da amplificatori della creatività e della produttività umana. Una volta stabilito un quadro etico e normativo adeguato, potremmo godere dei benefici offerti dall’IA senza sacrificare l’autenticità e la ricchezza dell’esperienza umana.

Questa visione presuppone un cambiamento di paradigma nella progettazione e implementazione dei sistemi di IA: da strumenti progettati per sostituire l’intervento umano a tecnologie concepite per potenziarlo e arricchirlo. L’IA “centrata sull’umano” (human-centered AI) rappresenta una frontiera promettente di ricerca e sviluppo che potrebbe concretizzare questa visione più equilibrata e simbiotica.

Utilizzo personalmente l’IA come assistente per il mio lavoro, ma sempre con un approccio critico e consapevole. Mi aiuta a organizzare le informazioni, a generare idee e a migliorare i miei testi, ma le decisioni finali sul contenuto, sul tono e sul messaggio rimangono saldamente nelle mie mani. Credo fermamente che questa sia la strada da seguire: utilizzare l’IA come un potente strumento, senza mai delegarle il controllo completo della creazione di contenuti.

Il valore irriducibile dell’esperienza umana nell’era digitale

In un mondo dominato dai numeri, dalle metriche e dagli algoritmi, c’è qualcosa di profondamente rivoluzionario nel riaffermare il valore intrinseco e irriducibile dell’esperienza umana autentica. La Dead Internet Theory ci invita a una riflessione profonda sul significato dell’autenticità nell’era digitale e sul valore delle connessioni genuinamente umane in un contesto sempre più mediato da algoritmi e intelligenze artificiali.

In un certo senso, questa teoria rappresenta un campanello d’allarme, un invito a recuperare la consapevolezza del valore dell’elemento umano in ogni sua manifestazione: l’imprevedibilità, la creatività, l’empatia, la capacità di sorprendere e di essere sorpresi. Questi elementi, che nessun algoritmo può replicare perfettamente, costituiscono il vero tesoro dell’esperienza umana condivisa.

Mi piace pensare che, per quanto sofisticata possa diventare l’IA, ci sarà sempre uno spazio insostituibile per le voci autenticamente umane. Come ha scritto la poetessa Emily Dickinson molto prima dell’avvento del digitale: “Nessuna nave come un libro per portarci in terre lontane”. Oggi potremmo aggiungere: nessun algoritmo come un essere umano può farci sentire veramente compresi, ascoltati, connessi.

Il futuro di internet non è scritto nei codici di programmazione o negli algoritmi di machine learning, ma nelle scelte che faremo come società riguardo al tipo di spazio digitale che vogliamo costruire e abitare. La Dead Internet Theory ci ricorda l’importanza di queste scelte e la necessità di affermare, anche e soprattutto nell’era digitale, il valore insostituibile dell’autenticità umana.

Puoi ascoltare questo articolo in formato “podcast” generato con NotebookLM

SEOPROOF Podcast
SEOPROOF
Internet Morto: Realtà o Inquietudine Digitale?
Loading
/
Torna in alto