Intelligenze artificiali, quali sono i rischi per l’uomo?

Intelligenze artificiali, un rischio per l'uomo?
Intelligenze artificiali, un rischio per l’uomo?

L’elettronica è sempre più evoluta, e sicuramente uno dei settori in cui la ricerca è in continua crescita, sopratutto con l’avvento delle nuove tecnologie e della Digital Era, che è stata per molti aspetti un “grande balzo in avanti”. Applicativi, computer, device e macchinari hanno raggiunto un livello di complessità così avanzato da rendere possibili scenari e concetti che fino a pochi anni fa erano considerati appannaggio della fantascienza.  Uno dei concetti che fa più discutere, e attorno a cui ruotano dubbi, interrogativi e paure è sicuramente lo sviluppo di intelligenze artificiali sempre più complesse e simili ai processi logici umani. Ne ha parlato di recente il giornale online  Slate, in un articolo molto esaustivo che risponde all’annosa questione; le intelligenze artificiali potranno mai rappresentare una concreta minaccia per l’umanità?

Le intelligenze artificiali fanno ancora paura

Siamo abituati a un certo concetto di fantascienza che vede nelle intelligenze artificiali sia un traguardo da raggiungere che una fonte di inquietudini. Da Asimov con le sue leggi della robotica in poi, l’idea di supercomputer dall’intelligenza così avanzata da rivaleggiare con quella umana sembra essere foriera per sua stessa natura di visioni apocalittche in cui le macchine finiranno per ribellarsi all’uomo. Ma quali sono i veri rischi dietro alla creazione di robot e sistemi artificiali che in molti casi arrivano si rivelano ancora più efficaci dell’azione umana (in tutti i campi e tutti i settori, dalla medicina all’ingegneria)? E le conseguenze potrebbero essere davvero terribili come siamo abituati a pensare?

Secondo gli scienziati che si occupano della progettazione e dello sviluppo di intelligenze artificiali, riporta l’articolo su Slate, il pericolo non sarebbe tanto quello di ritrovarsi con macchine assassine in grado di annientare l’umanità. Il vero fattore di rischio, avvertono gli esperti, è piuttosto la rapidità con cui ci troveremo a interagire con sistemi complessi e difficili da comprendere, e ancor più da controllare.  In altre parole a rappresentare una “minaccia” per l’uomo non sarebbero tanto le intelligenze artificiali in sé stesse, bensì il loro uso improprio e confusionario.

Parlando di intelligenze artificiali, continua l’articolo, intendiamo  un complesso sistema di “sistemi informatici e algoritmi che possono trarre conclusioni e sviluppare le proprie decisioni in modo autonomo, senza l’intervento diretto dell’uomo (…)  in grado di emulare – e spesso addirittura di superare – le capacità cognitive umane in ambiti specifici. Per esempio, quando Google Maps vi indica il percorso più breve per raggiungere una destinazione, lo fa sfruttando un rudimentale sistema di intelligenza artificiale. Le macchine con pilota automatico che potrebbero diventare le vetture del futuro, allo stesso modo, si serviranno di intelligenze artificialli per valutare le condizioni della strada e garantire la nostra incolumità.”

Il pericolo che rappresentano non sarebbe “immediato” come la fantascienza ci ha abituato a pensare. In un’inchiesta pubblicata su Rolling Stone,  il ricercatore Jeff Goodell afferma che un rischio concreto legato allo sviluppo di sistemi informatici e intelligenze artificiali sempre più avanzate potrebbe riguardare la perdita di numerosi post di lavoro; è il caso del settore dei trasporti, in cui gli autisti sarebbero rimpiazzati da un sistema di piloti automatici. “E’ estremamente probabile he le intelligenze artificiali segnino una svolta nella concezione del lavoro – il che potrebbe avere ripercussioni anche molto estese sul nostro stile di vita.”

Le intelligenze artificiali in futuro cercheranno di ucciderci?

La risposta, stando all’articolo su Slate, è no. Sebbene la realizzazione e l’implementazione di macchine sempre più autonome comporti degli elementi di rischio non trascurabili ai danni dell’individuo e della collettività (pensiamo per esempio ad armi automatiche montate su droni e con sistemi avanzati di tracciamento, come potrebbero essere le artiglierie del futuro prossimo),  il pericolo maggiore non sarebbe un’eccessiva indipendenza dei sistemi informatici quanto, piuttosto, una vera e propria corsa alle armi, in seguito alla quale queste tecnologie potrebbero finire facilmente sul mercato nero e nelle mani di terroristi e oppressori. Non diversamente, insoma, da quelle che sono state le “sorti” della bomba atomica.

In altre parole è improbabile che le intelligenze artificiali possano arrivare al punto da sviluppare un’autonoma decisionale così avanzata da ribellarsi contro l’umanità e cercare di ucciderci. Sempre Jeff Goodell sostiene che una vettura automatizzata, come quella su cui si è ritrovato a viaggiare per le strade di Mountanview in California, potrebbe trasformarsi sì, in un “robot assassino”… ma non di sua spontanea volontà quanto, piuttosto, a causa di un algoritmo sbagliato o di un errore di interpretazione del codice alla base dell’intelligenza artificiale responsabile per la guida. Se già l’erorre umano è potenzialmente in grado di rivelarsi un pericolo mortale, lo stesso margine di errore applicato a un robot o a un’intelligenza artificiale può avere esiti disastrosi, tanto più se parliamo di robot impiegati in ambiti complessi e molto specializzati, come può essere giustamente la guida di automezzi oppure la medicina.

Sullo stesso tenore, ma di parere opposto,  anche le preoccupazioni dell’astrofisico Stephen Hawking, che non ha mai fatto mistero della sua contrarietà in merito alla creazione di intelligenze artificiali avanzate, che potrebbero rivelarsi distruttive per l’umanità. Secondo Hawkins, infatti, il rischio maggiore non sarebbe quello di un malfunzionamento, ma, al contrario, di ritrovarci per le mani macchine fin troppo efficienti. Che lavorano troppo bene. “Con gli automi il vero rischio non è la cattiveria”, ha affermato Hawking, “ma la competenza.” Affidando responsabilità sempre più delicate a una serie di calcoli, algoritmi e formule matematica, non si tiene in conto cioè che questi sono privi di qualsiasi senso etico e morale, necessario a stabilire una scala delle priorità. L’articolo pubblicato su Slate continua con un esempio citato dallo stesso Hawking; “un’intelligenza artificiale responsabile per la manutenzione delle dighe potrebbe causare direttamente l’allagemtno di una città che si trovi sullo stesso tragitto di un fiume da arginare. Contentrata su parametri come il livello dell’acqua, l’I.A potrebbe considerare irrilevante la conseguente perdita di vite umane.”

Per questo motivo l’astrofisico britannico, insieme a Steve Wozniak (co-fondatore della Apple insieme a Steve Jobs), Elon Muskn e moltissimi altri luminari e scienziati, ha sottoscritto una lettera aperta presentata all’International Joint Conference of Artificial Intelligence di Buenos Aires a Luglio del 2015, in cui si chiede ai governi di bandire la progettazione, lo sviluppo e l’utilizzo di armi automatizzate, come spiega un articolo su Wired.

Insomma il punto su cui gli scienziati concordano è che l’errore più grande che l’uomo possa commettere non sta tanto nel creare macchinari, robot e sistemi informatici sempre più complessi e intelligenti, quanto nell’affidare a questi ultimi responsabilità che dovrebbero restare appannaggio esclusivo dell’etica e del raziocinio umano.

Cristina Pezzica