L'Allen Institute for AI adotta un nuovo approccio alla gestione dei rischi legati all'IA e alla promozione della trasparenza
L'intelligenza artificiale sta diventando sempre più profondamente radicata nel nostro mondo, consentendo ogni sorta di nuove possibilità, ma anche aumentando nuovi rischi e pericoli.
La privacy dei dati, i pregiudizi incorporati, le informazioni false intenzionali e non intenzionali sono tutte preoccupazioni principali.
Un possibile approccio ad alcuni di questi problemi è allo studio presso l'Allen Institute for AI (AI2) di Seattle.
Basandosi sul suo AI2 Open Language Model (OLMo) recentemente annunciato, l'istituto ha recentemente lanciato l'Impact License Project (ImpACT), una famiglia di licenze progettate per aiutare a ridurre i rischi e promuovere la trasparenza nel campo dell'intelligenza artificiale.
Il progetto prende il nome e progettato per implementare i valori fondamentali di impatto, responsabilità, collaborazione e trasparenza di AI2.
"Vediamo OLMo come una piattaforma", ha affermato Jesse Dodge, uno scienziato ricercatore di intelligenza artificiale che lavora a stretto contatto con il team legale di AI2.
“Quindi, stiamo facendo del nostro meglio per essere aperti su tutti i passaggi che stiamo intraprendendo durante la costruzione di questo grande modello aperto.
Ciò include fare cose come rilasciare i dati che sono stati usati per addestrarlo.
Inizialmente progettate per essere utilizzate specificamente con il modello aperto OLMo, le licenze ImpACT adottano una serie di nuovi approcci.
Le restrizioni della licenza sono basate sul rischio e quindi indipendenti dagli artefatti.
Poiché le licenze si basano sulla valutazione del rischio e non sono segmentate per artefatto o tipo di artefatto (i dati ei modelli da concedere in licenza), possono essere facilmente applicate a qualsiasi modello e applicazione derivati a valle.
Per fare ciò, le categorie di rischio delle licenze – basso, medio e alto – vengono assegnate sulla base di una valutazione completata da un gruppo multidisciplinare di avvocati, esperti di etica e scienziati.
I modelli di grandi dimensioni hanno preso d'assalto il mondo negli ultimi anni.
Questi includono grandi modelli linguistici e grandi modelli multimodali che sono essenzialmente reti neurali al loro interno.
Il modello si riferisce alla configurazione dei nodi – o neuroni – così come ai valori che interconnettono quei nodi.
Questi valori sono indicati come pesi e distorsioni.
Anche i dati, o corpus, su cui vengono addestrati i modelli sono fondamentali per il suo funzionamento e vengono sempre più trattati come proprietà intellettuale dalle aziende.
Poiché in genere vengono scartati dal Web pubblico, questi dati spesso incorporano materiale protetto da copyright creato da altri.
Il corpus risultante è spesso una vasta raccolta di informazioni che viene ulteriormente modificata per renderla più adatta all'applicazione prevista e al consumo pubblico.
Ciò può includere l'eliminazione di testo e immagini NSFW, un processo che richiede la supervisione umana e può sollevare molte questioni etiche.
Gran parte delle informazioni necessarie per effettuare le valutazioni della licenza imPACT provengono dai rapporti sull'impatto dei derivati che vengono completati durante il processo di ricezione della licenza.
Questi documenti di autodichiarazione in buona fede rivelano dettagli sugli artefatti.
I report hanno lo scopo di funzionare in modo simile alle schede modello o alle schede dei set di dati e includono dettagli sugli usi previsti, le fonti di finanziamento, il consumo di energia e la provenienza dei dati per i derivati.
Questa trasparenza consentirà a ricercatori, sviluppatori e utenti di comprendere meglio con cosa stanno lavorando, così come la comunità in generale.
"Penso che ciò che è così innovativo nell'intero progetto siano le misure di sicurezza e i punti decisionali che abbiamo integrato durante il processo di sviluppo", ha affermato Jennifer Dumas, consigliere generale di AI2 e responsabile del progetto.
Sebbene le licenze ImpACT siano progettate per essere utilizzate per artefatti AI come dati e modelli, non sono destinate a software e codice sorgente.
Questi continueranno ad essere concessi in licenza in base agli schemi di licenza esistenti.
Le licenze ImpACT iniziano con l'idea che le possibili applicazioni di un artefatto siano separate dal tipo di artefatto che è.
Ad esempio, sia i dati pubblici che i dati sanitari possono essere classificati come set di dati, ma il loro potenziale per usi dannosi è significativamente diverso.
Con le licenze esistenti, questi due set di dati potrebbero essere rilasciati e classificati in modo simile, ma con ImpACT vengono trattati in modo diverso.
CORRELATO: Allen Institute for AI crea un modello di linguaggio AI generativo aperto "dagli scienziati, per gli scienziati" Un'altra nuova caratteristica di queste licenze è che la natura aperta delle informazioni facilita la supervisione da parte della comunità.
Ciò consente la segnalazione pubblica dei trasgressori e i requisiti di divulgazione relativi agli usi previsti e agli input del progetto.
Un tale approccio di crowdsourcing può aiutare a garantire il rispetto dei valori della comunità, oltre a favorire la scalabilità del concetto.
Costruendo un'esenzione di responsabilità per le informazioni fornite in queste divulgazioni pubbliche in buona fede, si spera che incentivi la segnalazione pubblica.
Questo è importante come modo per garantire l'allineamento con i valori della comunità.
Ciò solleva altre considerazioni.
Poiché molti dei criteri esaminati si riducono a valori e giudizi di valore, è importante riconoscere che ciò che funziona per un gruppo o una comunità potrebbe non funzionare per un altro.
"Mi piacerebbe che qualcuno prendesse questa licenza e la modificasse per il proprio uso", ha detto Dumas.
“Condividere e utilizzare i propri giudizi di valore”.
Questo nuovo approccio alla gestione dell'IA arriva in un momento in cui il mondo è sempre più preoccupato per i suoi rischi e le sue sfide.
Il mese scorso, l'amministrazione Biden ha incontrato molti dei principali attori dell'IA, tra cui Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI.
La Casa Bianca ha affermato di aver ottenuto impegni volontari da queste società per contribuire a garantire uno sviluppo sicuro, protetto e trasparente, ma i dettagli su come raggiungere questo obiettivo sono rimasti scarsi.
L'approccio di AI2 è ancora nelle sue fasi iniziali, ma sembra almeno cercare soluzioni più concrete per i problemi che dobbiamo affrontare con l'IA.
Riconoscendo l'importanza di approcci aperti e un'ampia rappresentazione dei valori umani attraverso la supervisione della comunità, sembra un passo nella giusta direzione.
"Per la prima volta nella storia dell'IA, si stanno verificando enormi sviluppi nel sistema a scopo di lucro, ma non vengono condivisi con la comunità di ricerca", ha affermato Dodge.
“La comunità di ricerca continuerà a fare progressi a vantaggio del sistema a scopo di lucro, ma non viceversa.
Parte della nostra motivazione qui è essere il più aperti possibile per provare a far oscillare il pendolo nella direzione opposta.
L'istituto riconosce che l'idea iniziale per le licenze è venuta da Alvaro Herrasti, un ricercatore del team PRIOR di AI2.
Herasti ha lanciato per la prima volta l'idea di una "licenza software per il bene comune" all'evento Hackathon 2022 di AI2.
"Mentre esaminavamo la questione delle licenze, abbiamo in qualche modo capovolto il modo in cui ci pensavamo", ha detto Dumas.
"Penso che la filosofia della licenza per rischio sia qualcosa che può essere utilizzata anche al di fuori di OLMo, forse anche al di fuori dell'IA".
Ulteriori dettagli su come funzionano le licenze ImpACT AI2 possono essere trovati in un recente post sul blog AI2 e nel riepilogo del testo legale della licenza ImpACT.