Categories: Amazon

I leader tecnologici di Seattle lanciano un'organizzazione no-profit per promuovere una maggiore trasparenza nei dati di formazione sull'intelligenza artificiale

L’intelligenza artificiale è una tecnologia potente che promette di rimodellare il futuro, ma pone anche molte sfide e rischi.
Uno dei problemi più urgenti è la mancanza di regolamentazione e supervisione dei dati utilizzati per addestrare i modelli di intelligenza artificiale.
Una nuova organizzazione no-profit, la Transparency Coalition con sede a Seattle, mira ad affrontare questo problema.
I co-fondatori del gruppo, fondatori veterani di startup e leader tecnologici Rob Eleveld e Jai Jaisimha, si uniscono a noi in questo episodio del podcast GeekWire per discutere le ragioni per cui hanno avviato l'organizzazione e i loro obiettivi per contribuire a modellare la legislazione emergente e le politiche pubbliche in quest'area.
Ascolta di seguito e continua a leggere per le note sulla conversazione.
Iscriviti a GeekWire nei podcast Apple, Spotify o ovunque ascolti.
Origini e missione: la Coalizione per la Trasparenza è iniziata con una vera e propria chiacchierata davanti al caminetto.
Jaisimha ed Eleveld hanno discusso delle preoccupazioni sui problemi relativi alla trasparenza dell'IA e ai dati di addestramento non vincolati mentre erano in campeggio a Whidbey Island.
Hanno deciso di fondare la Coalizione per la Trasparenza come organizzazione senza scopo di lucro per affrontare questi problemi attraverso il sostegno politico e l’istruzione pubblica.
Il loro obiettivo è promuovere uno sviluppo più etico e responsabile dell’intelligenza artificiale aumentando la trasparenza sul modo in cui i modelli vengono addestrati e sui dati utilizzati per addestrarli.
Entrambi hanno una vasta esperienza come leader tecnologici e di startup: Eleveld, ex ufficiale sottomarino della Marina degli Stati Uniti, è stato CEO di Ekata, una società di verifica dell'identità acquisita da Mastercard nel 2021, dopo precedenti ruoli di leadership presso aziende tra cui Whitepages, Optify e Shiftboard.
Jaisimha, che ha conseguito il dottorato di ricerca in ingegneria elettrica e informatica presso l'Università di Washington, è un professore affiliato della UW che ha lavorato presso aziende come RealNetworks, Amazon, Microsoft e Medio.
Ha fondato e guidato la startup Appnique, che applica l'apprendimento automatico alle campagne pubblicitarie mobili.
"Sono sempre stato un sostenitore dell'applicazione dell'intelligenza artificiale a problemi limitati e a set di dati ben ponderati", ha spiegato Jaisimha.
“E cominciavo a preoccuparmi per la natura sciatta delle pratiche di raccolta dei dati e per le promesse esagerate su ciò che questi algoritmi potrebbero fare.
… Il cuore di tutto erano gli input dell’intelligenza artificiale.
Il loro obiettivo in questo momento è duplice: influenzare la politica e la legislazione a livello statale attraverso il sostegno, la testimonianza e l’educazione dei politici.
Hanno collaborato attivamente con i legislatori di Washington e della California.
Ampi sforzi educativi per aumentare la consapevolezza e la comprensione delle questioni legate all’intelligenza artificiale tra le parti interessate come i politici, i leader aziendali e il pubblico in generale interessato a questi argomenti.
Potenziali implicazioni: richiedere trasparenza sui dati di addestramento e sul modo in cui vengono utilizzati i modelli potrebbe modificare in modo significativo l’ambito dei modelli di intelligenza artificiale.
Se le aziende dovessero rivelare quali dati vengono utilizzati e ottenere il consenso, i set di dati dovrebbero probabilmente essere più mirati e limitati per evitare l’utilizzo di contenuti protetti da copyright o privati senza autorizzazione.
Un effetto sarebbe quello di restringere l’ambito delle applicazioni dell’IA per affrontare problemi specifici.
La trasparenza potrebbe anche rendere i risultati più prevedibili e responsabili poiché la relazione con i dati di addestramento sarebbe chiara.
"Se devi concedere in licenza i dati di formazione, questi diventano parte del costo delle merci", ha affermato Eleveld.
“Quindi i progetti diventano sempre più ristretti e più focalizzati sulla rilevazione del cancro al pancreas allo stadio 3 [per esempio], invece di cercare di rispondere a ogni domanda mai posta dall’umanità.
Riteniamo che un’intelligenza artificiale generativa più ristretta e più mirata sia molto migliore per la società.
È molto più controllato.
Puoi tracciare gli output… fino a quali erano gli input o i dati di addestramento.” La legislazione potenziale potrebbe includere: Definizioni standard di termini chiave come intelligenza artificiale, dati di formazione e trasparenza.
Requisiti di trasparenza su quali dati vengono utilizzati per addestrare i modelli.
Un meccanismo di controllo per verificare i dati utilizzati per addestrare i modelli.
Garantire l'uso dei dati personali e dei contenuti protetti da copyright è un'opzione di partecipazione anziché di rinuncia.
Finanziamenti: Eleveld ha detto che lui e sua moglie stanno fornendo il finanziamento iniziale per la Coalizione per la Trasparenza.
Si tratta di un'organizzazione no-profit 501(c)(4), che consente una maggiore flessibilità nelle attività di lobbying e sostegno politico rispetto a un tipico ente di beneficenza 501(c)(3).
Ora stanno cercando sovvenzioni da fondazioni, family office e altri interessati a influenzare la politica, poiché le donazioni a un 501 (c) (4) non sono deducibili dalle tasse come lo sarebbero per un 501 (c) (3).
Partenariati e prossimi passi: stanno collaborando con organizzazioni di ricerca sull’intelligenza artificiale come il gruppo Responsible AI Systems and Experiences dell’Università di Washington per contribuire a portare avanti le migliori pratiche dei ricercatori.
Parte dell’idea è quella di mettere in contatto i politici con gli esperti di intelligenza artificiale per aiutare ad affrontare le questioni chiave e identificare soluzioni.
"Questa non è solo una scatola magica", ha detto Eleveld riguardo ai modelli di intelligenza artificiale.
“Ci sono input e output come qualsiasi altro sistema, e dovrebbe essere scomposto e compreso a livello di base.
E se viene compreso, allora le persone inizieranno a porre il giusto tipo di domande e, si spera, ad arrivare a posizioni politiche migliori”.
Montaggio e produzione audio di Curt Milton.
Ascolta sopra o iscriviti a GeekWire nei podcast Apple, Spotify o ovunque ascolti.

Share
Commenti

Recent Posts

Startup svedese specializzata in batterie marittime inaugura la prima sede statunitense nello stato di Washington

Nuova sede Echandia negli Stati Uniti Echandia, una startup svedese che produce batterie e componenti…

Il Futuro dei Modelli Linguistici su Larga Scala e degli Agenti Autonomi secondo il Leader AI di Amazon Web Services

Introduzione Un antico detto nel settore tecnologico afferma che le aziende frequentano il loro fornitore…

Anteprima sugli utili di Amazon: Gli analisti puntano sulla monetizzazione dell’IA

Amazon presenterà i risultati finanziari giovedì, unendosi ad altri giganti tecnologici che stanno rivelando le…

This website uses cookies.