Libro. Algoritmi, paura e consenso: la rete che ci ruba il futuro
>>> Libro online su amazon con 5% sconto
Nel saggio “Qualcosa è andato storto”, Riccardo Luna analizza la metamorfosi della tecnologia digitale: da strumento di connessione e democratizzazione a dispositivo capace di alimentare paura, polarizzazione e condizionamento politico. Un cambiamento non neutrale, frutto di scelte industriali precise, che interroga anche la responsabilità etica e antropologica dell’uso dell’intelligenza artificiale
Fabio Colagrande – Città del Vaticano – Vatican News
All’inizio c’è una promessa tradita: una rete pensata per unire sponde lontane che, col tempo, si è trasformata in una trappola capace di mettere in pericolo il benessere dell’umanità. Qualcosa è andato storto (Solferino, 2025), l’ultimo saggio di Riccardo Luna, prende le mosse proprio da questa metamorfosi silenziosa: il passaggio della tecnologia al “lato oscuro”, che ha trasformato social network e intelligenza artificiale da strumenti di connessione in dispositivi di condizionamento psicologico, sociale e politico.
Dal web come promessa agli algoritmi dell’attenzione
Luna scrive da testimone interno. È stato tra i primi in Italia a intuire le potenzialità del web come “arma di costruzione di massa”, capace di ampliare diritti e democratizzare l’accesso al sapere. Ma il cuore del libro sta nel momento in cui quella promessa viene piegata a un altro scopo: massimizzare il tempo di permanenza degli utenti, monetizzare l’attenzione, estrarre dati. È lì che gli algoritmi smettono di essere neutrali.
Il meccanismo è noto ma inquietante: paura, rabbia e indignazione generano più coinvolgimento della riflessione; l’ansia trattiene più a lungo della serenità; il conflitto vale più della complessità. I feed – flusso di contenuti – vengono così modellati per premiare quelli più estremi e semplificati, non perché siano veri, ma perché funzionano. Il passaggio dal feed cronologico a quello algoritmico – scelta consapevole e deliberata – ha finito per alterare la percezione collettiva della realtà.
Paura, populismo e realtà distorta
Un esempio emblematico è quello della sicurezza. Mentre i dati mostrano in molti Paesi un calo dei reati, i social restituiscono l’immagine di un mondo sempre più pericoloso. Ne nasce una paura diffusa ma infondata, terreno fertile per narrazioni populiste che invocano muri, emergenze permanenti e rinunce alle libertà in cambio di protezione. Non è la realtà a produrre consenso, ma la sua rappresentazione distorta.
Luna non assolve le aziende del Big Tech. Al contrario, ne sottolinea una responsabilità precisa: questi effetti erano noti. Studi interni, ricerche indipendenti e denunce di ex dipendenti avevano già mostrato l’impatto degli algoritmi sulla salute mentale – soprattutto degli adolescenti – e sulla qualità del dibattito pubblico. Quelle evidenze sono state ignorate perché incompatibili con il modello di business. Una scelta industriale che ha ignorato l’etica.
