I principali ricercatori uniscono gli sforzi per supportare l’intelligenza artificiale responsabile per la progettazione biomolecolare
Più di 90 ricercatori – tra cui un premio Nobel – hanno aderito all’appello rivolto alla comunità scientifica affinché segua una serie di standard di sicurezza e protezione quando si utilizza l’intelligenza artificiale per progettare proteine sintetiche.
La dichiarazione della comunità sullo sviluppo responsabile dell’intelligenza artificiale per la progettazione delle proteine verrà svelata oggi a Boston al Winter RosettaCon 2024, una conferenza incentrata sull’ingegneria biomolecolare.
La dichiarazione fa seguito a un vertice sulla sicurezza dell’intelligenza artificiale convocato lo scorso ottobre dall’Institute for Protein Design presso la School of Medicine dell’Università di Washington.
"Considero questo come un passo cruciale per la comunità scientifica", ha detto il direttore dell'istituto, David Baker, in un comunicato stampa.
“L’uso responsabile dell’intelligenza artificiale per la progettazione delle proteine sbloccherà nuovi vaccini, medicinali e materiali sostenibili a beneficio del mondo.
Come scienziati, dobbiamo garantire che ciò accada riducendo al minimo la possibilità che i nostri strumenti possano essere utilizzati in modo improprio per causare danni”.
La dichiarazione della comunità invita i ricercatori a condurre revisioni sulla sicurezza dei nuovi modelli di intelligenza artificiale per la progettazione delle proteine prima del loro rilascio e a pubblicare rapporti sulle loro pratiche di ricerca.
Afferma che le tecnologie assistite dall’intelligenza artificiale dovrebbero far parte di una risposta rapida alle emergenze biologiche come le future pandemie.
E sollecita i ricercatori a partecipare alle misure di sicurezza relative alla produzione del DNA, ad esempio controllando il potenziale di pericolo di ciascuna sequenza genetica sintetica prima che venga utilizzata nella ricerca.
Il processo alla base dell’elenco dei principi e degli impegni volontari è parallelo alla conferenza Asilomar che ha elaborato le linee guida per l’uso sicuro del DNA ricombinante nel 1975.
“Questo è stato il nostro modello esplicito per il vertice che abbiamo ospitato in ottobre”, ha affermato Ian Haydon, responsabile della comunicazione.
per l'Institute of Protein Design e membro del comitato che ha preparato la dichiarazione.
Tra i primi ricercatori ad aderire alla dichiarazione c’è la biochimica del Caltech Frances Arnold, che ha vinto una parte del Premio Nobel per la chimica nel 2018 per aver aperto la strada all’uso dell’evoluzione diretta per ingegnerizzare gli enzimi.
Arnold è anche co-presidente del Consiglio dei consulenti per la scienza e la tecnologia del presidente, o PCAST.
Altri firmatari di spicco includono Eric Horvitz, direttore scientifico di Microsoft e membro del PCAST; e il genetista di Harvard George Church, probabilmente meglio conosciuto per i suoi sforzi per far rivivere il mammut lanoso da tempo estinto.
Haydon ha affermato che altri ricercatori che sono sviluppatori attivi di tecnologie di intelligenza artificiale per la previsione o la progettazione della struttura biomolecolare sono invitati ad aggiungere i loro nomi all'elenco online dei firmatari.
C'è un elenco separato di sostenitori a cui chiunque può aggiungere il proprio nome.
(Tra i primi sostenitori a inserire il proprio nome nella lista c'è Mark Dybul, che è stato coordinatore globale per la lotta all'AIDS negli Stati Uniti sotto la presidenza di George W.
Bush e ora è amministratore delegato di Renovaro Biosciences.) Gli organizzatori della campagna affermano che una persona ha firmato la dichiarazione non dovrebbe essere interpretato come implicante alcuna approvazione da parte dell'istituzione del firmatario – e non vi è alcun intento di far rispettare gli impegni volontari stabiliti nella dichiarazione.
Ciò solleva una domanda successiva: la dichiarazione avrà qualche impatto? "L'implementazione è il passo successivo e più importante", ha detto Haydon a GeekWire in una e-mail.
“Questo nuovo impegno dimostra che molti scienziati vogliono aprire la strada a questo, in consultazione con altri esperti.
Prevediamo una stretta collaborazione tra ricercatori e finanziatori scientifici, editori e responsabili politici”.
L'Institute for Protein Design è tra i leader mondiali nell'ingegneria biomolecolare: per più di un decennio, Baker e i suoi colleghi dell'istituto hanno utilizzato strumenti computazionali, incluso un videogioco, per testare i modi in cui le molecole proteiche possono essere ripiegate in “chiavi” per sbloccare benefici terapeutici o bloccare virus dannosi.
Nel 2019, l'istituto ha vinto una sovvenzione quinquennale di 45 milioni di dollari dall'Audacious Project al TED per sostenere il suo lavoro.
Un altro leader nel settore è Google DeepMind, che ha utilizzato il suo programma AI AlphaFold per prevedere le strutture tridimensionali di oltre 200 milioni di proteine nel 2022.
I ricercatori di DeepMind non sono stati tra i primi firmatari della dichiarazione della comunità; tuttavia, Google AI ha pubblicato una propria serie di impegni relativi alla ricerca sull’intelligenza artificiale.
"In linea con i principi dell'intelligenza artificiale di Google, ci impegniamo a garantire uno sviluppo e un'implementazione dell'intelligenza artificiale sicuri e responsabili", ha dichiarato a GeekWire un portavoce di Google DeepMind in una e-mail.
“Ciò include lo svolgimento di una consultazione completa prima di rilasciare il nostro modello di ripiegamento delle proteine AlphaFold, coinvolgendo una serie di esperti esterni”.
Gli sforzi per gestire i potenziali rischi dell’intelligenza artificiale e massimizzare i potenziali benefici hanno acquisito slancio nell’ultimo anno: lo scorso luglio, un gruppo di sette aziende tecnologiche – Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI – ha realizzato una serie di impegni volontari con la Casa Bianca per sviluppare l’IA in modo responsabile.
Il mese scorso, l’Università di Washington ha annunciato la nomina di una task force sull’intelligenza artificiale per affrontare le questioni etiche e di sicurezza relative all’intelligenza artificiale e sviluppare una strategia sull’intelligenza artificiale a livello universitario.
Questa settimana, la legislatura dello Stato di Washington ha approvato un piano per creare una task force sull’intelligenza artificiale che aiuterebbe i legislatori a comprendere meglio i vantaggi e i rischi dell’intelligenza artificiale.
Haydon vede la campagna per promuovere l’uso responsabile dell’intelligenza artificiale nella progettazione biomolecolare come parte di questa tendenza più ampia.
“Questa non è l’unica comunità alle prese con i benefici e i rischi dell’intelligenza artificiale”, ha affermato.
“Accogliamo con favore il contributo di altri che stanno riflettendo su questioni simili.
Ma ogni nicchia dell’IA presenta vantaggi, rischi e complessità.
Ciò che funziona per modelli linguistici di grandi dimensioni o per l’intelligenza artificiale addestrata su dati ospedalieri non si applica necessariamente a settori come la chimica o la biologia molecolare.
La sfida sarà creare le giuste soluzioni per ogni contesto”.