«Se vuoi vedere come può ucciderti l’Intelligenza Artificiale, compra una Tesla». Sono parole forti ma sicuramente azzeccate. A dirle è stato Steve Wozniak, il co-fondatore di Apple, riferendosi ad Elon Musk.
L’idea delle auto a guida autonoma esiste ormai da decenni ma è solo negli ultimi anni che la tecnologia è avanzata abbastanza da renderla possibile. Queste auto utilizzano una combinazione di sensori, telecamere e software per percorrere le strade senza bisogno dell’intervento umano. I potenziali vantaggi di questa tecnologia sono enormi ma lo sono anche i rischi.
Ve ne parlavamo già nel 2021 con questo articolo sul tema e le nostre proccupazioni da allora non hanno fatto che aumentare: https://www.produceict.it/quanto-sono-sicure-le-auto-connesse-il-rischio-ransomware-e-davvero-troppo-alto/
Non siamo pessimisti, né fatalisti. Semplicemente conosciamo le tecnologie e i rischi ad essi collegati. Ma soprattutto conosciamo tutte le lacune che possono avere software non protetti adeguatamente e quanto possano essere “inisistenti” i malintenzionati.
Torniamo a Wozniak. A quanto pare nel 2013 sotto consiglio dello stesso Musk aveva acquistato una Tesla Model S con la promessa che l’auto sarebbe stata in grado di attraversare il paese da sola entro pochi anni. Il co-fondatore di Apple si è detto estremamente deluso dalla tecnologia della frenata automatica di emergenza che a quanto pare genera problemi di frenata fantasma davvero rischiosi per chi sta dentro all’auto.
Secondo Wozniak il software Autopilot di Tesla non è abbastanza sofisticato e Musk dovrebbe fare uno sforzo in più per rendere davvero sicura la guida autonoma.
Come dicevamo, cosa succede se i sensori o le telecamere non riescono a rilevare un pericolo sulla strada o se c’è un problema tecnico (o una intrusione) nel software che controlla il veicolo?
In realtà i numeri sono abbastanza chiari: secondo i dati raccolti dalla National Highway Traffic Safety Administration è emerso che nel 2021, 273 incidenti hanno coinvolto un’auto Tesla (circa il 70% di tutti gli incidenti che hanno coinvolto un’auto con pilota automatico). Solo lo scorso anno il Dipartimento di Giustizia ha indagato su una dozzina di incidenti, alcuni dei quali mortali, in cui era attiva la guida autonoma.
Ma quello che spaventa noi in realtà non riguarda questo aspetto ma il livello di sicurezza dei software che supportano la guida autonoma. Già nel 2020 i cybercriminali erano in grado di prendere il controllo di intere flotte utilizzando un semplice smartphone. Da allora gli hacker si sono evoluti implementando tecniche sempre più sofisticate… secondo voi anche i sistemi di cyber security delle auto hanno fatto lo stesso? A questo rispondiamo noi: no, non lo hanno fatto.
Da qualche parte abbiamo sentito la frase “L’intelligenza artificiale è sicura quanto un guidatore bendato”, noi più che altro non ci concentreremmo sul guidatore ma piuttosto la diremmo come “L’’intelligenza artificiale è sicura quanto sono buone le intenzioni di chi la può hackerare da un momento all’altro”.
https://www-corriere-it.cdn.ampproject.org/v/s/www.corriere.it/tecnologia/23_maggio_07/steve-wozniak-il-co-fondatore-di-apple-contro-musk-se-vuoi-vedere-come-puo-ucciderti-l-intelligenza-artificiale-compra-una-tesla-d8a35448-cf6b-4b23-9e76-780e338c9xlk_amp.shtml?amp_js_v=0.1#webview=1&cap=swipe