Una ventina di ricercatori delle università di Cambridge, Oxford e Yale ha condotto uno studio sui potenziali usi criminosi dell’Intelligenza Artificiale. Dagli attacchi alle infrastrutture critiche agli scontri di automobili a guida autonoma, fino alla creazione di campagne di disinformazione, l'intelligenza artificiale, se violata dagli hacker, rischia di prestarsi ad una serie di usi criminosi che minacciano la sicurezza.

Il gruppo di studiosi, coadiuvati dal gruppo di ricerca OpenAI fondato dall'imprenditore Elon Musk e da esperti di privacy e questioni militari, ha lanciato l’allarme: «Nelle mani sbagliate, l'Intelligenza Artificiale minaccia la sicurezza digitale». In questo caso la tecnologia potrebbe essere utilizzata per insegnare alle macchine a diventare hacker, sferrando cyberattacchi automatizzati e ancora più potenti di quelli mai messi in atto finora.

Ma non solo. La minaccia è anche alla sicurezza fisica se solo si pensa che i criminali potrebbero prendere il controllo delle auto self driving, causando incidenti o, nel caso ancor più estremo, potrebbero utilizzare droni trasformandoli in armi rivolte verso obiettivi ben mirati.

Nemmeno la politica è immune: l’AI potrebbe azzerare la privacy o la repressione, potrebbe essere usata per creare falsi video per diffamare i politici stessi. «Viviamo in un mondo che potrebbe diventare irto di pericoli quotidiani a causa di un uso cattivo dell'AI. - avverte Sean O’Eigeartaigh, direttore del Centro per lo studio del rischio esistenziale dell'ateneo di Cambridge - I rischi sono reali. Ci sono scelte che dobbiamo fare ora: il nostro rapporto è una chiamata all’azione per governi, istituzioni e singoli individui in tutto il mondo».

Instant Future

Instant Future (IF) è un progetto di comunicazione digitale sui temi dell'innovazione, del futuro prossimo e della tecnologia che migliora la vita dell'uomo.


Social


© Copyright 2018 Instant Future - All rights reserved.