La ridondanza dei dati

La ridondanza dei dati

La ridondanza dei dati

Dic 2025

Ci hanno raccontato che le Intelligenze Artificiali “ragionano”, che gli algoritmi di nuova generazione sfoderano lampi di ingegno, che siamo ormai vicinissimi all’oracolo digitale. Eppure, a voler essere davvero onesti, bisognerebbe correggere questo immaginario fantascientifico che ci siamo costruiti attorno. La verità è che gran parte dello sviluppo informatico degli ultimi anni – quello che ci sembra così magico da apparire quasi animato – si fonda su un unico, gigantesco pilastro: la statistica. Le IA non producono risposte intelligenti, producono risposte probabili. Molto probabili. E questo, naturalmente, apre una domanda inevitabile: probabili… sulla base di cosa?

Pensate al supermercato. Alla disposizione dei prodotti. A quella bizzarra, ma in fondo rassicurante, vicinanza tra tonno e sottaceti. È il risultato di un calcolo di probabilità basato su migliaia di comportamenti scannerizzati in silenzio: un algoritmo che impara, memorizza e associa. La sua forza non è l’intuito, ma la bulimia dei dati. Lo stesso accade quando digitate su Google “Leonardo da Vanci”: l’interfaccia vi corregge (e la stessa cosa fa l’editor di testo che sto utilizzando per scrivere questo testo) con un’alzata di sopracciglia digitale perché milioni prima di voi hanno digitato “da Vinci”. La forma corretta, in fondo, è solo quella statisticamente più probabile.

Questo meccanismo – quasi comico nella sua semplicità – diventa ancora più evidente nel mondo del gioco computazionale. Si immagina che un algoritmo che gioca a scacchi rifletta, valuti strategie, anticipi mosse con un’intelligenza glaciale. Nulla di tutto ciò: oggi è più semplice fargli ingurgitare milioni di partite e lasciargli estrarre la combinazione di mosse più statisticamente vincente. Fine. Nessuna epifania strategica: solo un’immensa classifica di probabilità accumulate.

È a questo punto della storia che incontriamo il paradosso più grande: i modelli di IA (per ammissione degli stessi programmatori) sono scatole nere. Macchine che divorano dati e sputano verdetti statistici, senza che nemmeno i loro programmatori pretendano più di comprenderne l’intimo funzionamento. Funziona? Bene così. Le eccezioni? Incidenti di percorso. Le risposte completamente sbagliate? Folclore da social. L’illusione dell’intelligenza resta intatta, nonostante tutto.

Intanto, questa montagna di dati – prodotta, raffinata, moltiplicata – deve essere conservata. Dove? Negli sterminati data center che invadono il pianeta come nuove cattedrali del nostro culto digitale: ambienti asettici a 19 gradi, alimentati e refrigerati giorno e notte, energivori come piccole città. Abbiamo imboccato un cammino poco sostenibile, poco virtuoso, e difficilmente reversibile.

La nostra epoca sembra aver instaurato un culto della ridondanza. Un culto che si riflette perfettamente nella vita quotidiana: dalla fotografia digitale, dove scattiamo mille volte per tenerne una sola, alla logica dei “dati a perdere”. Una società che non sceglie, ma accumula; che non seleziona, ma produce scarti. Scarto come metodo. Ridondanza come filosofia.

Immaginate, ad esempio, di voler calcolare l’area di un triangolo. Basterebbero tre secondi ed una semplice formula, base per altezza diviso due. E invece l’approccio statistico delle IA equivale a esaminare dodici milioni di compiti in classe per ricavarne una convergenza ragionevole. Una follia apparentemente funzionale. Così lavorano perfino i grandi LLM (Large Language Model): componendo testi come mosaici probabilistici, scegliendo parola dopo parola quella più frequente nelle infinite lande dei dati passati.

Ma ogni ridondanza presenta un prezzo. Non solo ambientale – questo oceano di silicio che divora energia – ma anche cognitivo. Stiamo costruendo un modello autoriferenziale che rischia di collassare su sé stesso: il temuto Model Collapse. Le IA che iniziano a imparare da dati generati da altre IA, in un ciclo degenerativo simile alla consanguineità biologica negli incesti: generazioni d’informazione sempre più malate, sempre più distorte, sempre meno umane.

La ridondanza tecnologica rischia così di generare ridondanza culturale, trasformando il sapere in una superficie liscia, senza profondità, senza deviazioni, senza intuizione. Il nostro agire – oggi frutto di esperienza, immaginazione, coraggio e persino errore – rischia di diventare il miliardesimo tassello in una tabella di statistically likely choices. Un prato di fili d’erba che si piegano non più per volontà del vento, ma per l’inerzia del calcolo.

Ed è qui, forse, che si gioca il nodo più delicato: non se le IA “ragionino”, ma se noi, abituandoci alla loro ridondanza, smetteremo lentamente di farlo.

Claudio Francesconi

Testata di Riferimento