Il potere invisibile dei dati: cosa rivela il confronto tra Bernie Sanders e Claude

Quando un senatore degli Stati Uniti decide di interrogare pubblicamente un sistema di intelligenza artificiale, la prima reazione può essere di sufficienza. Sembra il tipico episodio destinato a vivere qualche ora nel ciclo rapido dell’informazione: una curiosità tecnologica, un format ben congegnato, un momento di comunicazione capace di unire politica, spettacolo e attualità digitale. E invece no. Il confronto tra Bernie Sanders e Claude, letto con la dovuta attenzione, è qualcosa di più serio. Molto più serio.

Sotto la superficie dell’esperimento mediatico, infatti, emerge una questione decisiva: l’intelligenza artificiale non sta semplicemente cambiando gli strumenti con cui produciamo testo, immagini o servizi. Sta ridefinendo i rapporti di potere dentro le società democratiche. E lo fa intervenendo nei due punti più sensibili dell’ordine liberale contemporaneo: la privacy e la formazione del consenso politico. Il punto, dunque, non è l’originalità della scena. Il punto è ciò che la scena ha rivelato.

Perché quando un sistema di IA riconosce, nero su bianco, che le grandi piattaforme raccolgono informazioni capillari sulle nostre vite, costruiscono profili comportamentali di estrema precisione e rendono possibile una manipolazione politica sempre più granulare, il problema smette di essere tecnologico in senso stretto. Diventa istituzionale. Diventa civile. Diventa democratico.

Il vero tema non è l’IA che parla ma il potere che accumula

C’è una tendenza, oggi, a discutere dell’intelligenza artificiale come se fosse una questione quasi esclusivamente tecnica: modelli più o meno avanzati, maggiore o minore accuratezza, produttività, efficienza, automazione. Tutto vero. Ma tutto insufficiente. Il tema decisivo è un altro: chi controlla le infrastrutture dell’IA controlla anche immense quantità di dati, capacità predittive inedite e strumenti di influenza che nessuna stagione precedente del capitalismo aveva mai posseduto in questa forma.

L’intelligenza artificiale non è solo una nuova tecnologia. È un moltiplicatore di asimmetrie. Il dialogo con Sanders mette proprio questo al centro. Non l’IA come gadget. Non l’IA come spettacolo. Ma l’IA come interfaccia visibile di una infrastruttura invisibile che già oggi raccoglie, ordina, correla e monetizza tracce intime del comportamento umano. Cronologia di navigazione, acquisti, geolocalizzazione, tempi di permanenza su una pagina, esitazioni, click, preferenze implicite, routine, paure, vulnerabilità. Ogni frammento della vita digitale viene trasformato in materia prima economica. E lo fa molto più adesso che nel corso del decennio scorso in cui cookies e sistemi di pubblicitari programmatici hanno già svolto un imponente lavoro di profilazione.

È qui che torna con forza una categoria che sembrava quasi abusata e che invece resta fondamentale: capitalismo della sorveglianza. La formula può apparire forte, ma descrive con precisione il fenomeno. Non siamo semplicemente utenti di servizi digitali. Siamo fornitori inconsapevoli di dati che vengono estratti, combinati e convertiti in valore economico. E quel valore non serve soltanto a venderci prodotti. Serve sempre di più a orientare comportamenti, a modellare scelte, a intervenire sul terreno più delicato di tutti: la nostra attenzione.

Il falso consenso dei termini di servizio

Uno degli aspetti più ipocriti dell’intero sistema è la finzione del consenso. Formalmente, accettiamo. In pratica, subiamo. Clicchiamo su “accetto” dentro architetture giuridiche e informatiche costruite apposta per rendere opaco ciò che invece dovrebbe essere pienamente comprensibile. Non c’è nulla di autenticamente libero in un consenso che viene estorto attraverso modelli contrattuali incomprensibili, squilibri informativi radicali e dipendenze funzionali ormai totali.

La vita quotidiana, il lavoro, la mobilità, la comunicazione, perfino l’accesso ai servizi essenziali, passano sempre più spesso attraverso piattaforme che chiedono una cessione massiva di informazioni personali in cambio della partecipazione alla vita sociale. Il risultato è che la privacy, da diritto sostanziale, viene progressivamente ridotta a formalità procedurale.

Ma la privacy non è un lusso individuale. Non è un capriccio da garantisti analogici. È la soglia minima di autonomia necessaria perché esistano cittadini e non soltanto soggetti leggibili, prevedibili e manipolabili. Se ogni preferenza, ogni fragilità e ogni inclinazione possono essere registrate, inferite e utilizzate, la libertà smette di essere uno spazio reale e diventa una simulazione. E quando questa simulazione si estende su scala collettiva, il danno non riguarda più il singolo individuo. Riguarda la struttura stessa della convivenza democratica.

Dal marketing alla manipolazione politica

Il passaggio più inquietante del confronto è forse quello sul microtargeting politico. Qui il problema si fa ancora più netto. Perché una democrazia liberale regge finché il conflitto politico si svolge in uno spazio pubblico riconoscibile, dove i messaggi possono essere visti, contestati, verificati e criticati da tutti. Il microtargeting rompe questo spazio comune. Quando l’infrastruttura dei dati consente di segmentare gli elettori in base a condizioni psicologiche, economiche, identitarie o emotive, la comunicazione politica cessa di essere pubblica nel senso forte del termine. Diventa una sequenza di messaggi invisibili agli altri, personalizzati per massimizzare l’effetto su gruppi ristretti e vulnerabili.

A un cittadino si può mostrare un messaggio rassicurante sul lavoro. A un altro un contenuto aggressivo sull’immigrazione. A un altro ancora una sollecitazione costruita sulla paura del declino, sulla solitudine, sulla rabbia fiscale o sulla sfiducia nelle istituzioni. Non esiste più una narrazione esposta al controllo democratico. Esistono invece molte narrazioni parallele, spesso incompatibili tra loro, calibrate per produrre reazioni specifiche.

Questa è una rottura storica. La propaganda tradizionale, per quanto potente e talvolta devastante, aveva almeno una dimensione pubblica. Poteva essere ascoltata da tutti, smontata da tutti, contestata apertamente. Il microtargeting algoritmico, invece, frammenta il corpo elettorale in mondi informativi separati. Produce una democrazia senza piazza, senza spazio condiviso, senza terreno comune di verifica. Non è un dettaglio. È una torsione strutturale del principio democratico.

La distruzione della realtà condivisa

Ogni ordine politico stabile presuppone un minimo di realtà condivisa. Non di consenso assoluto, naturalmente. Le democrazie vivono di conflitto, pluralismo, divergenza. Ma quel conflitto ha bisogno di poggiare su una base comune: fatti contestabili, argomenti visibili, versioni del mondo che possano essere esposte nel medesimo spazio pubblico. Se questa base si dissolve, il conflitto politico non si intensifica soltanto. Si deforma.

Il rischio maggiore che emerge dal dialogo tra Sanders e Claude è esattamente questo: l’IA, combinata con le economie della sorveglianza, rende possibile una frammentazione radicale della percezione collettiva. Non ci si limita a influenzare le opinioni. Si segmentano le condizioni stesse in cui le opinioni si formano. È qui che la questione diventa democratica nel senso più drammatico.

Perché una cittadinanza che vive in ambienti cognitivi differenziati, costruiti da attori economici privati o da strutture di propaganda politica, non è più una cittadinanza in senso pieno. È una popolazione esposta a regimi differenziali di persuasione. E dentro questa frattura si inseriscono non solo gli attori politici interni, ma anche soggetti esterni, potenze straniere, reti di influenza, apparati opachi, interessi economici transnazionali. La vulnerabilità del sistema cresce in modo esponenziale. Non perché gli elettori diventino improvvisamente ingenui, ma perché la potenza di fuoco delle infrastrutture di profilazione supera di gran lunga la capacità ordinaria di autodifesa del dibattito pubblico.

L’autoregolamentazione è una favola comoda per chi ha già vinto

A questo punto entra in scena il tema politico vero: come si governa un potere di questa portata? La risposta più ricorrente, negli ultimi anni, è stata quella dell’autoregolamentazione temperata da qualche principio generale di trasparenza, consenso informato e accountability. In teoria suona ragionevole. In pratica non basta. Non basta perché esiste un conflitto di interessi insanabile.

Le grandi aziende che promettono di proteggere gli utenti sono le stesse che traggono profitto dall’estrazione dei loro dati. Le imprese che invocano regole equilibrate sono spesso le stesse che investono somme gigantesche per evitare che quelle regole siano davvero vincolanti. Sanders, nel dialogo, coglie esattamente questo punto: non si può fingere che il processo legislativo si muova in un vuoto neutrale, mentre l’industria dell’IA esercita una pressione economica e lobbistica di scala colossale.

Pensare che basti attendere una buona regolazione, mentre le infrastrutture si espandono a ritmo accelerato, significa accettare una politica sempre in ritardo. Ed è questo il nodo: il tempo della politica è troppo lento rispetto al tempo dell’accumulazione tecnologica. Ogni mese di ritardo normativo non è neutro. È un mese in cui si consolidano posizioni dominanti, si costruiscono nuovi data center, si raccolgono nuovi dati, si addestrano modelli più potenti, si rafforza l’asimmetria tra chi governa i sistemi e chi li subisce.

Perché la proposta di una moratoria non è estremismo, ma realismo

È in questo contesto che la proposta evocata da Sanders – una moratoria sullo sviluppo di nuovi data center per l’IA – smette di sembrare provocatoria e inizia a mostrarsi per ciò che è: una misura di realismo politico. Le democrazie moderne regolano infrastrutture materiali quando capiscono che la velocità della trasformazione rischia di superare la capacità di controllo pubblico. Lo fanno con l’urbanistica, con l’energia, con la salute pubblica, con l’ambiente, con le grandi opere. Non si vede perché l’IA dovrebbe costituire l’unico ambito in cui la costruzione dell’infrastruttura dovrebbe procedere senza condizioni, come se si trattasse di un destino naturale e non di una scelta politica.

La moratoria ha un significato preciso. Non è un rifiuto oscurantista dell’innovazione. È un atto di sospensione deliberata. Un modo per dire che l’espansione della potenza computazionale non può essere considerata di per sé un bene pubblico, se non è accompagnata da garanzie robuste su dati, trasparenza, audit, uso politico, responsabilità e limiti.

In altre parole, la moratoria introduce l’unica leva materiale davvero efficace: bloccare temporaneamente l’infrastruttura per costringere il potere economico a negoziare sul serio. Senza una leva del genere, la politica resta confinata nel linguaggio dei principi mentre il mercato occupa il terreno dei fatti. E quando i fatti si consolidano, i principi arrivano sempre dopo, depotenziati, svuotati, aggirati.

La privacy come architettura della libertà democratica

La conclusione più importante del confronto è forse questa: la privacy non può più essere pensata soltanto come una questione individuale di riservatezza. È una componente dell’architettura democratica. Senza privacy non esiste autentica autonomia del giudizio. E senza autonomia del giudizio non esiste cittadinanza libera. Se attori pubblici e privati possiedono profili tanto dettagliati da poter anticipare, influenzare o orientare il comportamento politico di milioni di persone, allora il potere si sposta. Non scompare: si sposta. Si allontana dalle sedi visibili della decisione democratica e si annida nelle infrastrutture tecniche, nei server, nei modelli, nelle piattaforme, nei mercati dei dati. È questo lo spostamento che dobbiamo imparare a vedere.

Da anni l’innovazione viene raccontata come accelerazione inevitabile, come destino già scritto, come processo da inseguire a qualunque costo. Ma una società matura dovrebbe compiere il gesto opposto: fermarsi, valutare, deliberare, scegliere. Non ogni possibilità tecnica merita immediata espansione. Non ogni infrastruttura deve essere autorizzata in nome della competitività. Non ogni salto di scala è compatibile con la tenuta delle istituzioni democratiche.

Il punto politico: rendere visibili le scelte che la tecnologia nasconde

Il vero merito del dialogo tra Sanders e Claude è aver rotto, almeno per un momento, il linguaggio rassicurante dell’innovazione inevitabile. Ha reso visibile ciò che normalmente resta sullo sfondo: che l’intelligenza artificiale non è un’evoluzione neutra, ma un campo di conflitto tra interessi economici, diritti civili, istituzioni e modelli di società. Ed è precisamente qui che il dibattito europeo e italiano dovrebbe spostarsi. Meno fascinazione per la potenza astratta dei modelli. Più attenzione alle condizioni materiali della loro esistenza. Meno retorica sul futuro che arriva. Più politica sul futuro che vogliamo consentire.

Per troppo tempo abbiamo discusso dell’IA come se la questione fosse solo etica, o solo industriale, o solo occupazionale. Tutte dimensioni importanti, certo. Ma il tema ormai è più largo: riguarda la qualità della democrazia nell’epoca della profilazione automatizzata. La domanda, allora, non è se l’intelligenza artificiale sarà utile. In molti casi lo è già. La domanda vera è un’altra: chi decide le condizioni del suo sviluppo, a beneficio di chi, con quali limiti, sotto quale controllo, dentro quale cornice di legittimità democratica.

Una lezione da non archiviare come curiosità

Il rischio più grande sarebbe liquidare questo episodio come una trovata comunicativa ben riuscita. Sarebbe un errore. Perché il senso profondo del confronto sta proprio nell’aver mostrato che la nostra epoca è entrata in una fase nuova: quella in cui i sistemi di intelligenza artificiale non sono soltanto strumenti di supporto, ma ingranaggi di una più ampia infrastruttura di potere.

Se vogliamo evitare che la democrazia venga svuotata non da un colpo di Stato, ma da una progressiva erosione invisibile, allora dobbiamo intervenire prima che l’asimmetria diventi irreversibile. Servono regole, sì. Ma servono soprattutto condizioni materiali che diano alla politica il tempo e la forza di imporle. Per questo la proposta di una pausa infrastrutturale, di una moratoria, di un freno deciso alla corsa incontrollata dei data center, non va archiviata come radicalismo. Va discussa per quello che è: un tentativo di restituire alla democrazia un margine di sovranità sul proprio destino tecnologico. Il dialogo tra Bernie Sanders e Claude, in fondo, ci lascia proprio questa consegna.

L’innovazione non è mai neutrale. E la libertà non si difende da sola. Occorre una scelta politica lucida, severa, persino impopolare se necessario. Perché quando la capacità di conoscere, prevedere e orientare i cittadini si concentra nelle mani di pochi, il problema non è più soltanto la privacy. Il problema è il futuro stesso del governo democratico.

Guarda il video di Bernie Sanders

Questo contenuto è stato scritto da un utente della Community.  Il responsabile della pubblicazione è esclusivamente il suo autore.