Vitruvian-1, come funziona l’intelligenza artificiale made in Italy

È “orgogliosamente allenato in Italia” e non è un chatbot come gli altri: si presenta così Vitruvian-1, il modello italiano di intelligenza artificiale liberamente ispirato all’uomo Vitruviano di Leonardo da Vinci. Noto anche semplicemente come V1, nella giornata di lunedì 17 febbraio è stato aperto al pubblico, come conferma il “papà” Nicola Grandis, parlando a Il Sole 24 Ore: “Siamo in versione beta e ci aspettiamo tra le 50 e le 200mila visite con l’obiettivo, tra dieci o quindici giorni, di aprire le API e quindi essere pronti a fornire servizi alle aziende”.

Nelle scorse settimane l’arrivo di Vitrivian-1 era già stato annunciato anche sui canali social della startup italiana che l’ha sviluppato, ASC27, di cui Grandis è CEO e fondatore: “V1 è importante perché posiziona l’Italia e l’Europa dove devono trovarsi, insieme agli altri Paesi sulla capacità di costruire modelli ad altissime prestazioni”.

Cosa fa Vitruvian-1?

Questo modello di AI con capacità di ragionamento consuma meno e inquina meno, ma non è progettato né per fare discorsi, né per intrattenere gli utenti: il suo obiettivo è rispondere a problemi ed esigenze concrete, come supportare le persone nelle loro attività, aiutare le aziende a risolvere problemi o suggerire soluzioni a quesiti complessi. A differenze di altri modelli linguistici di grandi dimensioni, allenati studiando prevalentemente il linguaggio, V1 è più concentrato sulla logica.

Come spiega Grandis, infatti, Vitruvian-1 è più bravo in materie come matematica, fisica, chimica, medicina o tutto ciò che richieda ragionamento. Sul paper tecnico, a tal proposito, si legge che ha ottenuto un risultato notevole in un benchmark matematico specifico, al pari di modelli come o1 e o1-mini di OpenAI.

In un contesto globale in cui l’uscita di DeepSeek ha avuto un impatto molto significativo su borse e mercati, la questione dei costi non è secondaria. Sebbene Vitruvian non abbia le stesse ambizioni è comunque un buon punto di inizio: “Costiamo – sottolinea Grandis – meno degli altri. DeepSeek costa 2 dollari e 54 per milione di token, noi un euro per milione di token e lo possiamo fare perché il nostro modello è leggero, solo 14 miliardi di parametri”.

Nello specifico, l’addestramento è costato poco, nell’ordine delle decine di migliaia di euro, usando 8 chip H100 Nvidia. I dati sono stati condensati dentro un modello di AI di 14 miliardi di parametri, quindi V1 necessita di una minore potenza per funzionare, rispetto ai grandi modelli: questo si traduce in un minor consumo e un minore inquinamento: il modello nasce per rispettare i valori e le normative europee, conferma il CEO di ASC27, che aggiunge: “L’abbiamo voluto leggero in termini di parametri, proprio perché vogliamo che possa girare su hardware europeo, dal notebook al server, senza dover quindi acquistare costosi abbonamenti al cloud dalle Big Tech”.

Al momento la startup non intende rilasciare il modello su piattaforme per l’AI open source: “Per essere davvero open source devi pubblicare i pesi e i dati, e non tutti quelli che si definiscono aperti fanno così”, sottolinea Nicola Grandis. Che aggiunge: “Stiamo valutando cosa fare anche rispetto all’AI Act, se rilasciare il modello in formato completamente aperto o no. Una delle perplessità è l’utilizzo di questi software da parte di criminali, che possono riutilizzare il codice per scopi illegali”. Immagine di julos su Freepik.

Questo contenuto è stato scritto da un utente della Community.  Il responsabile della pubblicazione è esclusivamente il suo autore.