Krist Novoselic dei Nirvana e altri azionisti di Microsoft fanno pressione sulla società sulla sicurezza dell'intelligenza artificiale
Microsoft si sta affrettando troppo per capitalizzare sull’intelligenza artificiale a scapito del valore a lungo termine per gli azionisti? Questa è stata la domanda chiave durante l'assemblea degli azionisti della società giovedì mattina.
Krist Novoselic, musicista e autore co-fondatore dell'iconica band Nirvana, è stato portavoce di un'iniziativa degli azionisti che chiedeva alla società di studiare attentamente e riferire sull'impatto delle sue iniziative di intelligenza artificiale.
In un video riprodotto durante l’incontro virtuale, Novoselic ha affermato che Microsoft ha lanciato sul mercato i suoi prodotti di intelligenza artificiale generativa, affermando che la società dovrebbe fare di più per considerare e affrontare i rischi dell’intelligenza artificiale.
Ha citato non solo il potenziale impatto sulla società e sul mondo, ma anche i rischi legali, normativi e reputazionali a lungo termine per l’azienda.
“Quando Microsoft ha rilasciato il suo Bing basato sull’intelligenza artificiale generativa lo scorso febbraio, numerosi esperti e investitori di intelligenza artificiale hanno espresso preoccupazione.
Molti hanno esortato Microsoft a fermarsi e considerare tutti i rischi associati a questa nuova tecnologia in modo che l’azienda possa stabilire pratiche di mitigazione del rischio”, ha affermato Novoselic.
“Eppure la nostra azienda ha fatto un balzo in avanti, rilasciando questa tecnologia nascente senza le opportune barriere”.
Descrivendosi come un azionista di lunga data di Microsoft, ha aggiunto: "L'intelligenza artificiale generativa è un punto di svolta, non c'è dubbio, ma la corsa al mercato sembra dare priorità ai profitti a breve termine rispetto al successo a lungo termine".
Affrontando la questione in una sessione di domande e risposte durante la riunione, il presidente di Microsoft Brad Smith ha discusso dell'attenzione dell'azienda sulla sicurezza dell'intelligenza artificiale e sullo sviluppo responsabile.
Ha citato i sei principi di Microsoft per lo sviluppo dell'intelligenza artificiale, che vengono implementati attraverso la formazione dei dipendenti, le pratiche di sviluppo del software e le revisioni preliminari al rilascio.
"Fondamentalmente abbiamo sviluppato un'intera architettura di sicurezza AI che si adatta a ciascuna delle nostre applicazioni", ha affermato Smith.
“Allo stesso tempo, riconosciamo che nella maggior parte dei mercati, il pubblico vuole sapere che non si basa solo su aziende responsabili, ma su un quadro giuridico che, francamente, garantisce che ogni azienda aderisca ad alcuni standard comuni”.
La proposta invitava Microsoft a studiare i rischi posti dalla disinformazione creata e diffusa attraverso l’intelligenza artificiale e a pubblicare un rapporto sui suoi piani per mitigare i rischi.
Gli azionisti di Microsoft hanno votato contro la proposta e altre otto risoluzioni di azionisti esterni sono state presentate all'esame della riunione.
La società ha dichiarato che rilascerà i risultati dettagliati entro quattro giorni.
La proposta è stata guidata da Arjuna Capital, che in precedenza aveva sostenuto una proposta di successo degli azionisti che aveva portato Microsoft a commissionare e pubblicare un rapporto sulle sue politiche e pratiche in materia di molestie sessuali e discriminazione di genere.
Ecco il testo completo della proposta e la risposta di Microsoft.
Proposta 13: Rapporto sulla disinformazione e disinformazione sull'intelligenza artificiale (proposta degli azionisti) Arjuna Capital e un co-filer ci hanno informato che intendono presentare la seguente proposta all'esame della riunione annuale.
Rapporto sulla disinformazione e la disinformazione Premesso che è diffusa la preoccupazione che l'intelligenza artificiale generativa (AI), come esemplificato dal ChatGPT di Microsoft, possa aumentare drasticamente la disinformazione e la disinformazione a livello globale, ponendo gravi minacce alla democrazia e ai principi democratici.
"Sono particolarmente preoccupato che questi modelli possano essere utilizzati per disinformazione su larga scala", ha affermato Sam Altman, CEO di OpenAI, la società che ha sviluppato ChatGPT insieme a Microsoft.1 Microsoft avrebbe investito oltre 13 miliardi di dollari in OpenAI e ha ChatGPT integrato nel suo motore di ricerca Bing e altri prodotti.
Secondo quanto riferito, ChatGPT è l'applicazione consumer in più rapida crescita nella storia.2 Il Washington Post ha affermato che gli utenti di ChatGPT "hanno pubblicato numerosi esempi di strumenti che armeggiano su domande fattuali di base o addirittura fabbricano falsità, complete di dettagli realistici e citazioni false."3 Il Guardian ha riferito che "ChatGPT sta creando falsi articoli del Guardian."4 La stessa Microsoft afferma: "Bing a volte travisa le informazioni che trova e potresti vedere risposte che sembrano convincenti ma sono incomplete, inaccurate o inappropriate."5 I test di NewsGuard hanno rilevato la tecnologia ChatGPT potrebbe essere lo strumento più potente per diffondere ampiamente la disinformazione.6 La disinformazione generata dall’intelligenza artificiale può comportare seri rischi per la democrazia manipolando l’opinione pubblica, minando la fiducia istituzionale e influenzando le elezioni.
A gennaio, Eurasia Group ha classificato l’intelligenza artificiale generativa come il terzo rischio politico più alto che il mondo deve affrontare, avvertendo che le nuove tecnologie “saranno un regalo per gli autocrati intenzionati a minare la democrazia all’estero e a soffocare il dissenso in patria”.7 Il 2024 sarà un anno critico per le elezioni, con le elezioni presidenziali negli Stati Uniti e importanti gare al Senato e alla Camera.8 Le elezioni presidenziali si terranno anche in Russia e Ucraina.9 Gli azionisti temono che ChatGPT presenti a Microsoft notevoli rischi legali, finanziari e reputazionali.
Molti esperti legali ritengono che lo scudo di responsabilità delle società tecnologiche previsto dalla Sezione 230 del Communications Decency Act potrebbe non applicarsi ai contenuti generati da ChatGPT.
Il senatore Wyden, autore della legge, afferma che la Sezione 230 “non ha nulla a che fare con la protezione delle aziende dalle conseguenze delle loro azioni e dei loro prodotti”.10 Gli esperti stanno anche discutendo su come i principi della legge sulla diffamazione si applicano alle falsità generate dall’intelligenza artificiale, che aprono l'azienda è esposta a un sostanziale rischio di contenzioso.11 ChatGPT è già in conflitto con le autorità di regolamentazione, con le indagini in corso da parte delle autorità europee e canadesi per la protezione dei dati.12 A marzo, Microsoft ha eliminato l'intero team di etica e società dell'IA.
I dipendenti hanno espresso preoccupazione per il fatto che ciò lasci Microsoft senza un team dedicato per garantire che i suoi principi di intelligenza artificiale siano strettamente legati alla progettazione del prodotto.13 Risolto, gli azionisti richiedono al Consiglio di pubblicare un rapporto, a un costo ragionevole, omettendo informazioni proprietarie o legalmente riservate, da pubblicare entro un anno dell'Assemblea annuale e successivamente aggiornato annualmente, valutando i rischi per le operazioni e le finanze della Società, nonché i rischi per il benessere pubblico presentati dal ruolo della Società nel facilitare la disinformazione diffusa o generata tramite l'intelligenza artificiale, e quali passaggi, se del caso, l’azienda prevede di porre rimedio a tali danni e l’efficacia di tali sforzi.
Raccomandazione del Consiglio Il Consiglio di Amministrazione raccomanda un voto CONTRO la proposta per i seguenti motivi: DICHIARAZIONE DELLA SOCIETÀ IN OPPOSIZIONE Riteniamo che il programma articolato di Microsoft per affrontare i rischi di disinformazione sia di lunga data ed efficace.
Siamo già impegnati in diversi tipi di rendicontazione pubblica sui nostri sforzi, compresi quelli richiesti dal Codice di condotta dell’Unione europea sulla disinformazione e dal Codice di condotta australiano sulla disinformazione e la disinformazione.
A ulteriore dimostrazione del nostro impegno per la trasparenza, nel luglio 2023 Microsoft si è impegnata nei confronti del governo degli Stati Uniti a preparare un nuovo rapporto annuale sulla trasparenza sulle sue pratiche di governance dell’IA che coprirà il nostro approccio per mitigare il rischio di disinformazione e disinformazione generate dall’IA.
Di conseguenza, la relazione aggiuntiva richiesta dal proponente non è necessaria per informare gli azionisti del nostro approccio alla gestione dei rischi di disinformazione e disinformazione, compresi quelli relativi all’intelligenza artificiale.
Il nostro programma articolato per affrontare i rischi di disinformazione e disinformazione.
Microsoft ha svolto un ruolo di primo piano nell’identificazione e nel tentativo di neutralizzare le campagne di influenza informativa sponsorizzate dallo stato contro i partiti politici negli Stati Uniti, in Ucraina e nelle democrazie di tutto il mondo.
La nostra Democracy Forward Initiative lavora per proteggere le campagne dagli hacker, aumentare la trasparenza della pubblicità politica, difendersi dalla disinformazione, garantire un ecosistema informativo sano e sostenere processi elettorali equi e sicuri nei paesi democratici.
Vedi di più su [link].
Nel luglio 2022, Microsoft ha completato l'acquisizione di Miburo Solutions, una società di analisi e ricerca sulle minacce informatiche specializzata nel rilevamento e nella risposta all'influenza di informazioni straniere.
Ciò ha consentito a Microsoft di espandere le proprie capacità di rilevamento e analisi delle minacce per far luce sui modi in cui gli attori stranieri utilizzano le operazioni di informazione insieme agli attacchi informatici per raggiungere i propri obiettivi.
A livello di prodotto, riconosciamo il potere dell'intelligenza artificiale generativa e abbiamo adottato numerose misure per affrontare i rischi di integrità delle informazioni come parte del nostro impegno fondamentale per l'intelligenza artificiale responsabile (vedere ulteriori dettagli su [link]).
Su quel sito Web sono presenti rapporti pubblici specifici per prodotto che identificano la disinformazione e la cattiva informazione come rischi potenziali e i nostri sforzi per affrontarli, come un white paper dettagliato di maggio 2023 intitolato "Il nuovo Bing: il nostro approccio all'intelligenza artificiale responsabile".
Microsoft si è inoltre impegnata a far sì che i nostri servizi di creazione di immagini con intelligenza artificiale generativa, Bing Image Creator e Microsoft Designer, utilizzino tecnologie di provenienza dei contenuti per allegare crittograficamente credenziali di contenuto a un'immagine o a un video che registrano fatti di base che identificano il sistema di intelligenza artificiale utilizzato per creare l'immagine o il contenuto del video.
e se è stato alterato dopo la creazione.
Riteniamo che tali misure siano fondamentali per mantenere un ecosistema informativo sano e mitigare i rischi di disinformazione e disinformazione.
I nostri rapporti esistenti e futuri sul nostro approccio volto a mitigare il rischio di disinformazione e disinformazione.
Per dimostrare il nostro impegno per la trasparenza, rendiamo disponibili diversi report pubblici sui nostri sforzi per affrontare la disinformazione e la disinformazione, come il Microsoft Digital Defense Report disponibile all'indirizzo [link].
Riportiamo inoltre pubblicamente le misure adottate per rispettare i nostri obblighi in quanto firmatari del Codice di condotta europeo sulla disinformazione.
Il nostro rapporto più recente, presentato nel settembre 2023, copriva specificamente i rischi di disinformazione relativi all’intelligenza artificiale generativa ed è disponibile al pubblico all’indirizzo [link].
(Abbiamo presentato rapporti simili ai sensi del Codice di condotta australiano per la disinformazione e la disinformazione, la cui versione più recente è disponibile [link].) Nel luglio 2023, Microsoft si è impegnata nei confronti del governo degli Stati Uniti a pubblicare un rapporto annuale sulla trasparenza sulla nostra Pratiche di governance dell'intelligenza artificiale che includeranno informazioni chiave sul nostro approccio per mitigare i rischi di disinformazione nei prodotti e servizi Microsoft, attraverso la nostra partnership con OpenAI e attraverso strumenti per l'ecosistema informativo più ampio.
La pubblicazione del nostro primo rapporto annuale sulla trasparenza è prevista prima di giugno 2024.
I nostri investimenti nel personale responsabile dell'IA.
Infine, i riferimenti alla ristrutturazione del team Etica e Società di Microsoft in questa proposta potrebbero lasciare l’impressione che Microsoft abbia ampiamente disinvestito nell’intelligenza artificiale responsabile, il che non è il caso.
Nel corso degli anni abbiamo investito in modo significativo nell’intelligenza artificiale responsabile, con nuovi sistemi di ingegneria, incubazioni guidate dalla ricerca e, ovviamente, persone.
Come abbiamo condiviso pubblicamente in un blog del maggio 2023 sul nostro progresso nell'IA responsabile (link), ora abbiamo quasi 350 persone che lavorano sull'IA responsabile, di cui poco più di un terzo (129 per la precisione) vi si dedica a tempo pieno; il resto ha responsabilità di intelligenza artificiale come parte fondamentale del proprio lavoro.
I membri della nostra comunità ricoprono incarichi nei settori della politica, dell'ingegneria, della ricerca, delle vendite e in altre funzioni fondamentali, che toccano tutti gli aspetti della nostra attività.
Questo numero è cresciuto da quando abbiamo iniziato il nostro impegno in materia di IA responsabile nel 2017 e in linea con la nostra crescente attenzione all’IA.
L'anno scorso abbiamo apportato due modifiche chiave al nostro ecosistema di intelligenza artificiale responsabile: in primo luogo, abbiamo effettuato nuovi investimenti cruciali nel team responsabile del nostro servizio Azure OpenAI, che include tecnologie all'avanguardia come GPT-4; e in secondo luogo, abbiamo dotato alcuni dei nostri team di ricerca e progettazione degli utenti di competenze specialistiche, trasferendo in tali team ex membri del team di Etica e Società.
A seguito di questi cambiamenti, abbiamo preso la difficile decisione di liquidare il resto del team di Etica e Società, cosa che ha interessato sette persone.
Nessuna decisione che riguarda i nostri colleghi è facile, ma è stata guidata dalla nostra esperienza delle strutture organizzative più efficaci per garantire che le nostre pratiche di intelligenza artificiale responsabile siano adottate in tutta l’azienda.