Amazon

Cybersecurity nell’Era dell’AI: Conversazione con Steve Schmidt, Chief Security Officer di Amazon

Il panorama della sicurezza informatica per i giganti del cloud di Seattle

Questa settimana sul WebRaider Podcast: è stata una settimana importante per la sicurezza informatica dei colossi del cloud di Seattle, anche se in modi molto diversi per ciascuno di loro.

Il Presidente di Microsoft, Brad Smith, è stato a Washington, D.C., per testimoniare davanti alla Commissione per la Sicurezza Nazionale della Camera dei Deputati degli Stati Uniti riguardo alle sfide di sicurezza di Microsoft—rimani sintonizzato per i punti salienti alla fine dello show.

Amazon ha tenuto la sua conferenza annuale sulla sicurezza del cloud, AWS re:Inforce, a Philadelphia.
L’intelligenza artificiale generativa ha aggiunto alcune nuove importanti complessità alla sicurezza informatica, e questo è stato uno dei principali argomenti della mia recente conversazione con uno dei principali relatori dell’evento AWS di questa settimana, Steve Schmidt, Direttore della Sicurezza di Amazon.

Come l’AI generativa sta cambiando il panorama della sicurezza

“L’AI generativa consente molto positivamente agli attaccanti di essere più efficaci in alcuni settori.
Ad esempio, nella creazione di email di phishing più efficaci, o nella creazione di sollecitazioni per convincere le persone a cliccare su link o cose del genere, consente sicuramente un maggiore livello di successo per l’attaccante.

Ma può anche abilitare il difensore, perché quando sfruttiamo l’AI generativa, essa permette al nostro personale di ingegneria della sicurezza di essere più efficace.
Ci consente di alleggerire molto del lavoro gravoso e non differenziato che gli ingegneri dovevano fare prima, permettendo loro di concentrarsi su ciò che gli umani sanno fare meglio, ossia analizzare le aree grigie e sbrogliare quei piccoli pezzi apparentemente insignificanti che non sembrano avere senso, ma che messi insieme formano un quadro completo che all’improvviso li fa esclamare, ‘Aha.
Capisco cosa sta succedendo qui.'”

Un caso d’uso per l’AI generativa nella sicurezza

Un esempio semplice è il sommario in linguaggio naturale di eventi molto complessi.
Se pensi al lavoro di sicurezza che devo svolgere, gran parte di esso consiste nel prendere piccoli pezzi di dati tecnici e formarli in una storia su ciò che sta accadendo.

Creare quella storia, e poi trasmettere quelle informazioni ai proprietari del business, è qualcosa che ogni professionista della sicurezza deve fare.
È probabilmente una delle parti più difficili del nostro lavoro: prendere qualcosa di incredibilmente complesso, tecnico e sfumato, e metterlo in un linguaggio che abbia senso per un direttore finanziario o un amministratore delegato.
L’intelligenza artificiale generativa si sta rivelando molto utile in quest’area.”

Tre grandi domande che le aziende dovrebbero porsi per adottare l’AI generativa in modo sicuro

Dove sono i nostri dati? I team aziendali inviano i dati ad un LLM per l’elaborazione, sia per l’addestramento che per aiutare a costruire e personalizzare il modello, o tramite query quando utilizzano quel modello.
Come sono stati gestiti quei dati durante il workflow? Come è stata garantita la loro sicurezza? Questi sono aspetti fondamentali da comprendere.

Cosa succede con la mia query e con i dati associati? I dati di addestramento non sono l’unico set di dati sensibili di cui preoccuparsi quando gli utenti iniziano ad abbracciare l’AI generativa e gli LLM.
Quindi, se il tuo utente interroga un’applicazione AI, l’output di quella query e la reazione dell’utente ai risultati vengono utilizzati per addestrare ulteriormente il modello? Che dire del file che l’utente ha inviato come parte della query?

Gli output di questi modelli sono abbastanza accurati? La qualità degli output di questi modelli sta migliorando costantemente.
E i team di sicurezza possono utilizzare l’AI generativa come uno degli strumenti per affrontare le sfide.
Dal punto di vista della sicurezza, è davvero il caso d’uso che definisce il rischio relativo.

Come l’esperienza passata di Schmidt all’FBI influenza il suo approccio

“La cosa che più ho appreso dalla mia esperienza all’FBI è stata la focalizzazione sulle persone dietro le azioni avverse.
Per gran parte della mia carriera, ad esempio, mi sono concentrato sul controspionaggio russo e cinese.
Se guardi ai motivatori per lo spionaggio, nel mondo classico, sono esattamente le stesse motivazioni degli hacker, al momento attuale.
Sono il denaro, l’ideologia, la coercizione o l’ego.”

Cosa ricava dal suo lavoro di volontariato come EMT e pompiere

“Come esseri umani, desideriamo il feedback.
Vogliamo vedere che stiamo avendo successo, vogliamo vedere che ciò che facciamo conta.
E nel mondo informatico, gran parte di ciò con cui abbiamo a che fare è virtuale.
Quindi, è davvero difficile vedere il risultato delle tue azioni.
È anche molto difficile vedere un impatto individuale in un’area dove si guardano, come faccio io, centinaia di milioni di macchine.

Essere un pompiere volontario e un Tecnico Avanzato di Emergenza Medica significa che se faccio bene il mio lavoro, una persona fisica che posso vedere e toccare ha una giornata migliore.
E ottengo quel feedback umano reale che non è disponibile da un computer.
È incredibilmente gratificante.
Come persona, so che sto portando valore; sto aiutando quella persona in una situazione che potrebbe essere stata la peggiore giornata della loro vita, e la stiamo rendendo migliore.”

%d