Brad Smith di Microsoft cita la crisi del Boeing come racconto cautelativo per macchine intelligenti, chiede il passaggio all'IA kill
Per decenni, i film di fantascienza hanno predetto un futuro in cui gli umani perdono il controllo di macchine intelligenti e ne consegue il caos.
Quelle rappresentazioni apocalittiche dell'intelligenza artificiale possono sembrare un futuro distante o non realistico.
Ma i semi di una realtà in cui perdiamo il controllo delle macchine che costruiamo vengono cuciti oggi.
Questo è secondo il presidente della Microsoft Brad Smith che ha sorpreso la folla al GeekWire Summit – la nostra conferenza tecnologica annuale a Seattle – con una semplice domanda.
"Qual è il più grande problema relativo al software che ha un impatto sull'economia di Puget Sound nel 2019?" "Software nella cabina di pilotaggio di un aereo, software che i piloti non sono stati in grado di disattivare", ha affermato Smith.
Smith si riferiva alla ricaduta multi-miliardaria del software 737 Max difettoso di Boeing che provocò due incidenti che uccisero 346 persone.
Il centro di produzione di Boeing ha sede a Renton, nello stato di Wash.
La società ha annunciato oltre 8 miliardi di dollari di costi relativi agli incidenti e il danno a compagnie aeree e fornitori si estende ben oltre.
Secondo quanto riferito, i voli si sono schiantati perché il software ha provato a spingere ripetutamente il naso degli aerei a causa di dati di volo imprecisi e i piloti non sono stati in grado di affrontare il problema in tempo.
"Questo dovrebbe parlarci", ha detto Smith.
“Questo non è solo qualcosa che dovrebbe parlare a un'azienda o a un solo settore.
Dovrebbe parlare a tutti coloro che creano tecnologia, che usano la tecnologia, in ogni parte della società, e questa è una lezione che dovremmo ricordare.
Dobbiamo essere in grado di creare una buona tecnologia e dobbiamo essere in grado di spegnerla.
"Nella chat sul fuoco e nel suo nuovo libro," Strumenti e armi ", Smith ha esortato l'industria tecnologica e il governo a venire insieme per affrontare le minacce incombenti dell'intelligenza artificiale e dell'apprendimento automatico.
"Siamo la prima generazione che deciderà come le macchine prenderanno queste decisioni, che tipo di principi etici guideranno il loro processo decisionale", ha detto.
"Nessuna pressione, ma è meglio che lo facciamo bene."