Il limite dell’intelligenza artificiale spiegato tramite un paradosso della matematica
Il Deep Learning (DL) è una branca dell’apprendimento automatico (il cosiddetto machine learning) che si ispira alla struttura del cervello. Nell’ultimo periodo questo settore è in continuo sviluppo e l’attuale stato dell’arte, ovvero l’impiego di reti neurali (le neural networks, NNs), è stato sfruttato in numerose applicazioni. Tra gli ambiti più interessanti figurano ad esempio il design di microchip, l’interpretazione di immagini mediche e la predizione della struttura delle proteine. Le applicazioni, però, sfociano anche in contesti diversi: basti pensare alle macchine in grado di sconfiggere gli esseri umani in giochi complessi come gli scacchi. Nonostante i promettenti esiti un recente studio condotto dai ricercatori dell’Università di Cambridge e dell’Università di Oslo ha dimostrato che l’intelligenza artificiale (AI), ambito in cui si inseriscono le reti neurali, presenta un limite che può essere spiegato tramite un paradosso della matematica.
Reti neurali e intelligenza artificiale: qual è il limite?
Il funzionamento di una rete neurale prevede di sfruttare degli elementi di base, analoghi a dei neuroni. A questi vengono forniti dei dati che devono essere elaborati per risolvere problemi o compiere dei task. La rete prosegue quindi per una serie di iterazioni successive al fine di migliorare i collegamenti e trovare il pattern più adeguato alla funzione. Questo diventa quindi il “metodo” di default, in pratica come avviene nel processo di apprendimento umano naturale.
Il problema principale correlato a queste reti neurali riguarda la loro instabilità. È stato infatti dimostrato che una lieve modifica negli input, intesi come dati in ingresso, possa comportare stravolgimenti negli output, intesi come i risultati in uscita dal sistema. Un esempio di ciò è stato trovato in una precedente ricerca in cui si è visto come la modifica di un singolo pixel in un’immagine aveva fatto cambiare l’interpretazione dell’immagine da parte del sistema da cavallo a rana. Per pensare a un’applicazione più concreta, poi, è stato visto come un cambiamento impercettibile all’occhio umano in immagini di natura medica possa comportare diagnosi sbagliate nel 100% dei casi.
I sistemi di AI non sono però in grado di distinguere tra risultati plausibili e i propri errori. Questo li rende particolarmente pericolosi quando impiegati in analisi e task delicati. Non solo: il funzionamento dell’AI è basato nella maggior parte dei casi su delle black box di cui conosciamo solo l’output. Il risultato in uscita viene però fornito senza ulteriori informazioni circa confidenza o dubbi.
Un paradosso della matematica è la causa del limite dell’intelligenza artificiale
Il tallone d’Achille dell’AI è quindi l’instabilità della tecnologia. I ricercatori hanno identificato l’origine di questo problema in un paradosso matematico. Questo era stato introdotto nel ventesimo secolo dai teoremi di incompletezza di Kurt Godel e dalla loro “versione informatica”, opera di Alan Turing. L’evidenza portata dai due studiosi è che è impossibile provare se alcune affermazioni matematiche sono vere o false, motivo per cui alcuni problemi computazionali non possono dunque essere risolti con algoritmi. In pratica se un sistema matematico è abbastanza ricco e dettagliato da poter elaborare e descrivere tutta l’aritmetica, esso non è in grado di dimostrare la propria coerenza e completezza. Da questo discende che i limiti intrinseci della matematica vengono ereditati dall’AI, motivo per cui non possono esistere algoritmi per alcuni problemi.
A causa di questo paradosso, dunque, possono essere elaborate buone NNs, ma senza la possibilità di assicurarne la loro affidabilità. I ricercatori hanno però anche rassicurato il campo dell’AI: non tutte le reti sono “difettate” e intrinsecamente sbagliate. Esistono infatti aree e metodi in cui le NNs risultano affidabili. Cruciale è però l’individuazione di queste aree. È stata spiegato anche che in alcuni casi queste reti neurali possono esistere, ma manca l’algoritmo per ottenerle.
In pratica è come dire che una torta può esistere, potremmo anche conoscerne la ricetta, ma non abbiamo i mezzi per realizzarla. Inoltre, cercando di usare gli utensili a nostra disposizione il risultato ottenuto sarebbe completamente diverso da quello desiderato. Possono esserci anche casi in cui non siamo a conoscenza dell’adeguatezza dei nostri strumenti. Per continuare con l’analogia: proviamo a fare la torta e fino a quando non abbiamo il risultato finale non sappiamo se è davvero quella che vogliamo creare. O ancora: in alcuni casi il nostro mixer è sufficiente a preparare la nostra torta.
Dal paradosso della matematica al futuro dell’intelligenza artificiale
Lo studio, quindi, evidenzia dubbi e limiti correlati al mondo dell’AI. Hansen, uno degli autori della ricerca, ha spiegato che attualmente i successi dell’AI superano di molto la teoria e la nostra comprensione. È quindi necessario un programma per capire al meglio metodi e strategie al fine di superare l’ostacolo dettato dall’instabilità.
La scoperta dei paradossi matematici non ne ha bloccato lo studio e lo sviluppo. Sono stati invece trovati nuovi metodi e strade partendo dai limiti in cui si era incorsi. Una cosa simile è auspicabile per l’AI: costruire nuovi sistemi in grado di risolvere problemi in maniera affidabile e trasparente, partendo proprio dai limiti attuali. Il prossimo step è quindi quello di combinare analisi numeriche, teorie dell’approssimazione e fondamenti computazionali per imparare a determinare quali sono le reti neurali implementabili e quali possono essere rese stabili e affidabili. In pratica come i teoremi di Godel e Turing hanno permesso di formulare teorie su possibilità e limiti della matematica, anche questa nuova consapevolezza potrebbe auspicabilmente portare a una serie di conoscenze simili nell’ambito dell’AI.