Oltre OpenAI, Sutskever lancia la sfida per creare un’IA che superi l’uomo… in sicurezza

Il mondo dell’intelligenza artificiale è stato di recente scosso dalla notizia dell’addio di Ilya Sutskever, co-fondatore di OpenAI, all’azienda. Si vocifera di dissapori con il CEO Sam Altman, ma Sutskever non è rimasto con le mani in mano.

Ha fondato una nuova startup, Safe Superintelligence (SSI) Inc., che punta a diventare una diretta concorrente di OpenAI. Sutskever, uno dei massimi esperti di IA, ha presentato SSI come “il primo laboratorio al mondo dedicato alla superintelligenza sicura“.

Insieme a lui ci sono Daniel Levy, ex dipendente di OpenAI, e Daniel Gross, investitore e imprenditore nel settore dell’IA, con un passato in Y Combinator, l’incubatore di startup che ha visto Altman tra i suoi dirigenti. Gross ha investimenti in colossi come GitHub e Instacart, ma anche in aziende di IA come Perplexity.ai, Character.ai e CoreWeave.

Una superintelligenza sicura

Il motto di SSI è semplice ma ambizioso: “una superintelligenza sicura”. L’obiettivo, infatti, è creare un’intelligenza artificiale in grado di superare le capacità cognitive umane, ma senza comprometterne la sicurezza. La startup si impegna, inoltre, a non farsi influenzare dalle pressioni commerciali a breve termine, dando priorità alla sicurezza e al progresso a lungo termine.

Infatti, Sutskever e gli altri co-fondatori hanno dichiarato che “l’approccio singolare di SSI significa che non ci sono distrazioni per spese generali di gestione o cicli di prodotti, e il nostro modello di business significa che sicurezza, protezione e progresso sono tutti isolati dalle pressioni commerciali a breve termine”. L’azienda avrà sede sia a Palo Alto che a Tel Aviv.

La sfida: “Creare una macchina più intelligente degli umani”

La nascita di SSI arriva dopo le dimissioni di Sutskever da OpenAI, avvenute a maggio dopo mesi di tensioni. Sutskever ha avuto un ruolo fondamentale nello sviluppo dell’IA generativa in OpenAI, contribuendo a creare un team dedicato proprio alla sicurezza dell’IA.

Da sempre preoccupato dal potenziale pericolo rappresentato dall’IA, Sutskever sembra voler continuare su questa strada con Safe Superintelligence. La sua sfida è creare una macchina più intelligente degli umani, ma in modo sicuro. Una sfida ambiziosa, che potrebbe rivoluzionare il futuro dell’intelligenza artificiale.

Questo contenuto è stato scritto da un utente della Community.  Il responsabile della pubblicazione è esclusivamente il suo autore.