Quale etica dietro i modelli di IA? Una questione per le imprese

L’adozione di sistemi di intelligenza artificiale all’interno delle aziende comporta anche delle scelte etiche riguardo i modelli stessi sui quali questi sistemi sono stati sviluppati e sulla gestione di eventuali rischi che ne possono derivare come ad esempio bias cognitivi, norme sulla privacy o sicurezza dei dati. L’adozione di questi sistemi sta trasformando il mondo delle imprese e i mercati aprendo nuovi scenari all’interno della competizione tecnologica ma anche tra le aziende stesse.

Una ricerca universitaria condotta da Francesco Castellaneta, (Skema Business School) con Tommaso Ramus, (Essec Business School) con Anna Minà, (dipartimento Gec della LUMSA) e Martina Castronovo, dottoranda di ricerca nello stesso dipartimento, ha cercato di tracciare il profilo dei principali modelli in uso alle applicazioni di Intelligenza Artificiale e capire quali possono essere le implicazioni per le aziende dalla adozione di uno o dell’altro modello. E soprattutto ha cercato di comprendere quale “narrazione del rischio” viene adottata e può essere usata per diventare un fattore di leva e di sviluppo.  Alcuni contenuti dello studio sono stati anticipato alla special conference della Sms (la Strategic Management Society) che si è tenuta al dipartimento LUMSA di Palermo; la versione completa sarà presentata alla conferenza annuale della società accademica che si tiene a San Francisco il prossimo ottobre. 

Il contesto competitivo della GEN-AI

Entrare nel mercato della GEN-AI significa affrontare pressioni competitive intense. Le aziende devono dimostrare leadership tecnologica, spesso in ambienti normativi incerti e in rapida evoluzione. La narrativa del rischio diventa quindi uno strumento strategico: non solo per mitigare le preoccupazioni del pubblico e dei regolatori, ma anche per differenziarsi dalla concorrenza e rafforzare la fiducia degli investitori. Questioni come disuguaglianza sociale, bias algoritmico e privacy dei dati non sono solamente tecniche o operative, ma portano con sé importanti implicazioni sociali. Dove finiscono i miei dati? Come vengono trattati? Come vengono usati? Come sono addestrati i modelli? Sono domande che i dirigenti delle aziende devono farsi quando adottano uno di questi modelli. Di conseguenza, gli stakeholder richiedono sempre più che le aziende adottino standard etici rigorosi, comunicando in modo trasparente e responsabile i rischi.

Tra leva competitiva e responsabilità etica

Dalle prime evidenze della ricerca si vede come la comunicazione del rischio non è più una semplice questione di conformità, ma un atto deliberato di posizionamento. Ci sono aziende che mostrano come la trasparenza nella gestione del rischio (ad esempio su bias, privacy, sicurezza) possa rafforzare la reputazione e favorire la legittimazione pubblica. L’inquadramento del rischio è dunque sia una leva competitiva che un impegno verso la responsabilità etica. La comunicazione del rischio, sostiene la ricerca, rappresenta un vero e proprio asset strategico, attraverso il quale le imprese possono posizionarsi e differenziarsi sul mercato. Il compito dei manager e dei dirigenti è dunque saper bilanciare la spinta verso l’innovazione con la necessità di costruire fiducia tra gli stakeholder.  Ad esempio, i nuovi entranti nel mercato potrebbero presentare i rischi dell’AI come sfide complesse che richiedono collaborazione normativa, così da costruire credibilità; al contrario, gli operatori già affermati potrebbero evidenziare la propria esperienza consolidata nella mitigazione dei rischi, rafforzando così la loro leadership.