Come l'abilitazione degli utenti a determinare i valori dell'IA plasmerà il futuro dell'intelligenza artificiale?

Come l’abilitazione degli utenti a determinare i valori dell’IA plasmerà il futuro dell’intelligenza artificiale?

CryptoView.io APP

Analizza i mercati cripto con raggi X

Immagina un mondo in cui l’intelligenza artificiale (IA) è plasmata dalle persone che la utilizzano. Questa idea non è più solo un esperimento mentale, ma una realtà, grazie a uno studio innovativo dell’azienda di IA Anthropic. Hanno sviluppato un grande modello linguistico (LLM) che consente agli utenti di influenzare i suoi giudizi di valore. Questo approccio innovativo ha dato origine a una nuova ondata di sviluppo democratico dell’IA. Ma cosa significa questo per il futuro dell’IA? Approfondiamolo.

Democratizzare l’IA: Un approccio innovativo

Il concetto di democratizzare l’IA potrebbe sembrare astratto, ma ha implicazioni molto pratiche. Tradizionalmente, molti LLM, come Claude di Anthropic e ChatGPT di OpenAI, sono stati progettati con delle linee guida: istruzioni codificate che dettano comportamenti specifici. Sebbene queste linee guida mirino a limitare le uscite indesiderate, possono involontariamente privare gli utenti della loro agenzia. Dopotutto, ciò che viene considerato accettabile non è sempre utile e viceversa. Inoltre, i giudizi morali o basati sui valori possono differire tra culture, demografie e periodi di tempo.

Quindi, come possiamo trovare un equilibrio tra mantenere l’agenzia degli utenti e prevenire uscite inappropriati? La risposta sta nel lasciare che gli utenti votino i valori nello studio dell’intelligenza artificiale. Questo approccio, che Anthropic ha definito ‘IA Costituzionale Collettiva’, consente agli utenti di allineare i modelli di IA con i propri valori.

Una ‘Costituzione’ per l’IA

L’esperimento di IA Costituzionale Collettiva di Anthropic è un tentativo pionieristico di affrontare questa complessa questione. Lavorando insieme a Polis e al Progetto di Intelligenza Collettiva, l’azienda ha coinvolto 1.000 utenti provenienti da diverse esperienze. Ha chiesto a questi partecipanti di rispondere a una serie di domande tramite sondaggio, consentendo loro di dettare l’allineamento dei valori dei modelli di IA.

Il processo era simile alla creazione di una ‘costituzione’ per l’IA. Proprio come una costituzione serve come documento guida per la governance in molti paesi, questa costituzione dell’IA consisteva in un insieme di regole che il modello di IA doveva seguire. Il modello è stato quindi addestrato per incorporare queste regole nei suoi processi.

Sfide e Successi

Sebbene questo esperimento sia stato un successo scientifico, ha anche evidenziato diverse sfide. Una delle principali difficoltà è stata lo sviluppo di un nuovo metodo per il processo di benchmarking. Poiché questo esperimento era il primo del suo genere e si basava sulla metodologia unica dell’IA Costituzionale di Anthropic, non esisteva un test consolidato per confrontare i modelli di base con quelli ottimizzati con i valori forniti dal pubblico.

Nonostante queste sfide, il modello che ha integrato i dati dai feedback dei sondaggi degli utenti ha superato leggermente il modello di base in termini di uscite di parte. Questo risultato sottolinea il potenziale di permettere agli utenti di un prodotto LLM di determinare i loro valori collettivi.

Mentre il mondo dell’IA continua a evolversi, piattaforme innovative come cryptoview.io possono aiutare gli utenti a rimanere informati e coinvolti. Che tu sia un appassionato di IA o un semplice osservatore, è importante tenersi aggiornati su questi sviluppi e capire come potrebbero plasmare il nostro futuro digitale.

Inizia ora a utilizzare i nostri strumenti gratuitamente.

Controlla gli RSI di tutti i mercati cripto

RSI Weather

Tutti gli RSI dei maggiori volumi in un colpo d'occhio.
Usa il nostro strumento per visualizzare istantaneamente il sentiment del mercato o solo i tuoi preferiti.