Education

Intelligenza delle macchine e autonomia delle persone

Una caratteristica delle nuove macchine dotate di intelligenza artificiale generativa è l’autonomia. Si parla spesso di “sistemi artificiali autonomi” (autonomous AI systems), “veicoli a guida autonoma” (autonomous vehicles, AVs) o “armi letali autonome” (lethal autonomous weapons). Si tratta di dispositivi che svolgono i loro compiti senza la necessità di un intervento dei programmatori e degli utenti che determini la traiettoria del loro comportamento. Così, per esempio, una automobile dotata di un livello avanzato di guida autonoma cambierà da sola la corsia di marcia, si arresterà o scanserà un ostacolo anche senza l’intervento del guidatore mentre un’arma letale autonoma non avrà bisogno di qualcuno che prema il grilletto.

La nozione di “autonomia” investigata dalla tradizione dell’etica filosofica può essere utile per comprendere, e magari modellizzare meglio, ciò che si intende per “autonomo” nella progettazione computazionale. Immanuel Kant è celebre per aver elaborato un’etica basata sulla nozione di “autonomia”. Secondo Kant un comportamento o una intenzione sono autenticamente etici solo se seguono norme che lo stesso agente di cui stiamo valutando l’intenzione o il comportamento si è dato. È una idea che ha radici nella stessa etimologia della parola. Un individuo è “autonomo” se segue delle regole (da nómos, “regola”, in greco) che egli stesso (da autós, “se stesso”, in greco) si è imposto.

Anche le riflessioni di John Stuart Mill a proposito di autonomia si rivelano perspicue. Mill difende una visione dell’autonomia che stabilisce un paradigma utile per una conversazione fruttuosa sull’etica digitale. Questo paradigma si basa su due concetti: l’autonomia e il principio del danno (Harm Principle). Giocare con ciascuno di questi concetti e con la loro interazione permette di articolare un dibattito su alcune questioni urgenti poste dall’impatto etico della digitalizzazione.

Secondo Mill, un individuo è autonomo se è responsabile delle proprie scelte. La responsabilità è un requisito flessibile: equivale a razionalizzare la scelta, o, in altre parole, a essere in grado di spiegare perché qualcosa è stato scelto rispetto a qualcos’altro. Tuttavia, la responsabilità è anche strettamente legata all’autonomia, poiché se una scelta è razionalizzabile, allora è, molto probabilmente, il risultato di un processo decisionale plasmato dalle qualità personali e morali del decisore. Allo stesso tempo, poiché il risultato si basi sulle qualità personali del soggetto, una scelta che è responsabile è, molto probabilmente, anche originale, poiché uniche sono le qualità personali e morali su cui si basa chi la compie.

La visione milliana dell’autonomia (o “individualità”, come la definisce lui) è accompagnata dal principio del danno. Come afferma Mill, il principio stabilisce che l’unico scopo per cui una comunità è autorizzata, individualmente o collettivamente, a interferire con la libertà di azione di uno dei suoi membri è l’autoprotezione. L’unico scopo per cui il potere può essere esercitato legittimamente su un membro di una comunità civile, contro la sua volontà, è quello di prevenire danni agli altri. Il principio pone un limite all’autorità politica e alle convenzioni sociali sull’invasione della sfera personale di un individuo e, così facendo, stabilisce una barriera protettiva intorno alla sua individualità.

Pertanto, non è irragionevole affermare che l’autonomia e il principio del danno siano due facce della stessa medaglia. Essendo una barriera, il principio del danno funziona come una sorta di libertà negativa. Traccia i confini di uno spazio in cui l’individuo è sovrano e sottopone tutti gli altri valori etici alla priorità dell’auto-espressione o dello sviluppo dell’individualità. L’autonomia, d’altro canto, consente la costruzione dell’individualità all’interno dello spazio in cui è garantita la sovranità individuale, proprio come richiederebbe una versione moderata della libertà positiva. Di conseguenza, il principio del danno e l’autonomia contribuiscono congiuntamente al corretto sviluppo dell’individualità e, a loro volta, a molte conseguenze di valore economico, politico ed etico. Ad esempio, una società composta da individui autonomi prospera grazie alla diversità e al dinamismo che, a loro volta, generano prosperità materiale e immateriale.

Immaginare degli agenti artificiali che siano autenticamente autonomi nel senso kantiano o milliano del termine è forse un po’ troppo. Eppure, è proprio questa la direzione che sembra che la nozione di autonomia stia prendendo nel campo dell’intelligenza artificiale generativa. I modelli linguistici come Chat-GTP elaborano autonomamente e in modo opaco per gli stessi specialisti le loro strategie argomentative per soddisfare le richieste contenute nel prompt, ossia nel testo formulato nel linguaggio naturale che chiede all’IA generativa di svolgere una certa attività.

Il tipo di interazione che è resa possibile da questo genere di dispositivi conduce a considerarli come se fossero degli agenti il cui comportamento è determinato da ragioni e possibili giustificazioni. In altre parole, come se fossero responsabili, come del resto richiede il modello milliano di “autonomia”.

Il valore etico dell’autonomia è anche connesso alla possibilità di dare un senso a una decisione. L’uso degli algoritmi di apprendimento automatico è onnipresente nelle nostre vite, dall’amministrazione della giustizia alle prestazioni dei dipendenti nelle organizzazioni, dai punteggi di credito alle decisioni di assunzione. In effetti, gli algoritmi di apprendimento automatico possono finire per influenzare sostanzialmente l’accesso ai beni di giustizia rilevanti come i beni primari sociali rawlsiani (ad esempio, opportunità, reddito e ricchezza).

Una delle questioni chiave legate all’uso crescente dell’apprendimento automatico consiste nelle spiegazioni su come una macchina prende le sue decisioni. Interrogata sulle giustificazioni di una certa decisione, l’AI generativa produrrà diverse spiegazioni ad hoc, a volte convincenti e a volte strane, perfino fantasiose. Paradossalmente, proprio questi tentativi di “arrampicarsi sugli specchi” per fornire delle giustificazioni per le proprie affermazioni ha reso il tipo di intelligenza esibito da tali macchine come qualcosa che appare sorprendente e stranamente “umano”. Sembra come se tali macchine, siccome sono in un certo senso autonome, debbano sopportare il peso di essere anche, almeno in parte, responsabili di ciò  che dicono, e perciò impegnate a fornire delle giustificazioni anche quando non ne hanno di solide (proprio come facciamo noi umani).

Man mano che l’intelligenza artificiale matura e si diffonde, si fonde nelle nostre vite, esperienze e ambienti e diventa un facilitatore invisibile che media le nostre interazioni in modo conveniente e appena percettibile. Pur creando nuove opportunità, questa integrazione invisibile dell’IA nei nostri ambienti pone questioni etiche urgenti. Ma l’integrazione dell’IA pone anche un altro rischio fondamentale: l’erosione dell’autodeterminazione umana a causa dell’invisibilità e del potere di influenza dell’IA. Con le loro capacità predittive e il nudging incessante, onnipresenti ma impercettibili, i sistemi di IA possono plasmare facilmente e silenziosamente le nostre scelte e azioni. Paradossalmente, proprio mentre le macchine stanno per diventare “autonome” grazie alle nuove architetture computazioni recentemente sviluppate, sembra proprio che sia l’autonomia umana a venire minacciata dal soft power dell’AI e dall’inclinazione sociale a allocare sempre più compiti e competenze alle macchine. Immagine di freepik.

Sebastiano Bavetta e Pietro Perconti