OpenAI ha concesso ai professori della Duke University, nella Carolina del Nord, Stati Uniti d’America, un finanziamento di 1 milione di dollari, distribuito in tre anni, per la ricerca e lo sviluppo di un’IA in grado di emettere giudizi morali.
Il progetto, denominato “Research AI Morality”, è guidato dai professori di etica Walter Sinnott-Armstrong e Jana Borg, che hanno già pubblicato studi che dimostrano il potenziale dell’IA di diventare un “GPS morale” – aiutando le persone a prendere decisioni migliori e moralmente solide – e hanno costruito un algoritmo progettato per aiutare i medici a valutare quale dei loro pazienti dovrebbe ricevere un trapianto di rene per primo.
Sviluppare un modello di IA che possa comprendere e formulare giudizi morali è una sfida che molti hanno tentato.
Nel 2021, ad esempio, l’Allen Institute for AI ha creato “Ask Delphi“, un chatbot di IA costruito per dare risposte etiche alle domande.
Sebbene Ask Delphi fosse in grado di giudicare situazioni semplici, moralmente sensibili – sapeva che barare agli esami era sbagliato, per esempio – non ci è voluto molto perché iniziasse a fornire risposte non etiche, distorte e inappropriate. Questo perché è stato addestrato su dati provenienti dal web e non comprende il ragionamento o le emozioni: basa le sue risposte su schemi che trova nei dati. Inoltre, la morale e l’etica sono altamente soggettive e personali per un individuo, quindi sarà una sfida per i professori costruire un modello di IA in grado di emettere buoni giudizi moralmente validi. Fonte: AiToolReport.
Questo contenuto è stato scritto da un utente della Community. Il responsabile della pubblicazione è esclusivamente il suo autore.