Quando aziende di IA ben note come Anthropic o OpenAI annunciano nuovi modelli migliorati, ricevono molta attenzione. Sembra, infatti, che le IA diventino più intelligenti ogni giorno. Ma una nuovissima IA della startup HyperWrite, con sede a New York, è sotto i riflettori per un motivo diverso: utilizza un nuovo sistema open source di rilevamento degli errori per evitare molti dei classici problemi di “allucinazione” che affliggono regolarmente i chatbot come ChatGPT o Google Gemini.
La nuova IA, chiamata Reflection 70B, si basa sul modello Llama open source di Meta, secondo quanto riportato dal sito di notizie VentureBeat. L’obiettivo è sviluppare un assistente di scrittura che aiuta gli utenti a creare i propri testi e ad adattarsi alle loro esigenze.
Ma ciò che è più interessante di Reflection 70B è che viene pubblicizzato dal CEO e co-fondatore Matt Shumer come il “miglior modello di IA open-source al mondo” e che incorpora un nuovo tipo di rilevamento e correzione degli errori chiamato reflection-tuning. Come ha osservato Shumer in un post su X, altri modelli di IA generativa “hanno la tendenza ad allucinare e non possono riconoscere quando lo fanno”. Il nuovo sistema di correzione consente agli LLM di “riconoscere i propri errori e quindi correggerli prima di impegnarsi in una risposta”. Il sistema consente alle IA di analizzare i propri output (da cui il nome “reflection”) in modo da poter individuare dove hanno sbagliato e imparare da esso: essenzialmente l’output di un’IA viene reinserito nel sistema, al quale viene chiesto di identificare se l’output ha aree che devono essere migliorate.
La questione dell’accuratezza dell’intelligenza artificiale, i problemi di diffusione della disinformazione e altre problematiche relative all’affidabilità sono di primaria importanza, dato che un numero crescente di persone si affida alle IA per ottenere dati, richiedere opinioni su questioni rilevanti e così via. Garantire che le future IA intelligenti siano allineate con i migliori interessi dell’umanità è una sfida emergente, con l’Unione Europea, gli Stati Uniti e il Regno Unito che hanno firmato un nuovo accordo per assicurare la sicurezza dell’IA.
La difficoltà di questo tipo di iniziativa è che, per creare leggi veramente significative, i legislatori devono affrontare questioni matematiche e logiche complesse che sono alla base dei modelli di IA come ChatGPT e dei nuovi contendenti come Reflection 70B, partendo anche dai semplici conteggi. Le prossime leggi sull’IA in California, ad esempio, richiedono la divulgazione quando un modello di IA viene addestrato su computer in grado di eseguire 10^26 operazioni in virgola mobile al secondo. Questo equivale a 100 septilioni di bit di matematica al secondo, con una quantità enorme di zeri da contare… Fonte: Inc.
Questo contenuto è stato scritto da un utente della Community. Il responsabile della pubblicazione è esclusivamente il suo autore.