Nella giornata di oggi, 16 ottobre 2018, sbarca in libreria l’ultimo libro del più geniale tra gli scienziati della nostra epoca. Venuta a mancare pochi mesi fa, Stephen Hawking temeva l’avvento dell’intelligenza artificiale, ipotizzando come ben presto le macchine autonome sarebbero diventate indipendenti dall’uomo che le avrà costruite.
“Le mie risposte alle grandi domande“, è questo il titolo dell’ultimo scritto che lo scienziato di Cambridge ha realizzato prima di passare a miglior vita, edito in Italia da Rizzoli. Il Times ha pubblicato in anteprima alcuni stralci, in cui emergono pensieri ricorrenti tra fede e scienza, con ampio margine dedicato ad una grande paura dello scienziato: l’intelligenza artificiale.
La previsione, o meglio il timore di Hawking, è proprio questo: essere convinto che il progresso scientifico, prima o poi, porterà inevitabilmente allo sviluppo di intelligenze artificiali e che le macchine, in grado di ragionare autonomamente, non saranno manipolabili dall’uomo; non solo, saranno anche in grado di raggiungere velocemente qualsiasi scopo si siano prefissate, e se quello scopo non sarà compatibile con l’essere umano ci sarà da temere il peggio: “In breve, l’avvento dell’IA superintelligente sarebbe la cosa migliore o peggiore che dovesse mai accadere all’umanità. Il vero rischio con l’intelligenza artificiale non è la malizia, ma la competenza. Un’IA super-intelligente sarà estremamente brava a raggiungere i suoi obiettivi, e se questi obiettivi non sono allineati con i nostri, siamo nei guai. Probabilmente non sei un malvagio nemico che muove le formiche per malizia, ma se sei responsabile di un progetto idroelettrico di energia verde e c’è un formicaio nella regione da allagare, peccato per le formiche. Non poniamo l’umanità nella posizione di quelle formiche“ – Hawking lo spiega così, con parole sue.
Uno scenario apocalittico, quello ipotizzato da Hawking che prevede anche come, nei prossimi mille anni, “la Terra certamente sarà andata a male” e poco importa se sarà a causa di una guerra nucleare o di una calamità naturale dovuta ai soprusi dell’uomo perché “la colpa” sarà comunque la nostra. La razza umana dovrà trasferirsi altrove, tecnologia permettendo, per conquistare un altro pianeta; il ricercatore britannico ipotizza anche che i creatori della super-intelligenza saranno anche in grado il proprio codice genetico, e sopravvivranno più a lungo sfidando le leggi dell’ingegneria genetica, migliorando la propria capacità di immagazzinare i ricordi, la resistenza alle malattie e l’aspettativa di vita mentre gli altri moriranno miseramente.
Nei suoi ultimi scritti Stephen Hawking non manca occasione per soffermarsi sull’esistenza di Dio, o per meglio dire, sulla sua non-esistenza: “La domanda è: il modo in cui l’universo è stato creato, è una scelta di Dio per ragioni che non possiamo capire, o è stato determinato da una legge della scienza? Credo la seconda ipotesi. Se ti piace, puoi chiamare le leggi della scienza Dio”.
Le più grandi minacce per la Terra, scrive in “Le mie risposte alle grandi domande”, verrebbero da eventuali asteroidi in rotta di collisione o dai cambiamenti climatici (quest’ultimi già in atto): “Un aumento della temperatura oceanica scioglierebbe le calotte polari e causerebbe il rilascio di grandi quantità di anidride carbonica. Entrambi gli effetti potrebbero rendere il nostro clima simile a quello di Venere con una temperatura di 250° C”. Sebbene lo scienziato non abbia tutta questa positività circa il nostro futuro, spiega anche come possa essere combattuto tramite l’utilizzo della fusione nucleare, che creerebbe energia pulita senza intaccare minimamente l’ambiente, senza contribuire attivamente, così come fanno le energie che utlizziamo al momento, alla distruzione della nostra casa.
Per approfondire:
[1] “Stephen Hawking’s last fear was rise of the superhuman“ – di Jonathan Leake, pubblicato su The Times il 14 ottobre 2018.