Il limite dell’intelligenza artificiale spiegato tramite un paradosso della matematica
![Il limite dell'intelligenza artificiale spiegato tramite un paradosso della matematica](https://www.sciencecue.it/wp-content/uploads/2022/04/artificial-intelligence-g3827a0ffe_1920-1400x933.jpg)
Il Deep Learning (DL) è una branca dell’apprendimento automatico (il cosiddetto machine learning) che si ispira alla struttura del cervello. Nell’ultimo periodo questo settore è in continuo sviluppo e l’attuale stato dell’arte, ovvero l’impiego di reti neurali (le neural networks, NNs), è stato sfruttato in numerose applicazioni. Tra gli ambiti più interessanti figurano ad esempio il design di microchip, l’interpretazione di immagini mediche e la predizione della struttura delle proteine. Le applicazioni, però, sfociano anche in contesti diversi: basti pensare alle macchine in grado di sconfiggere gli esseri umani in giochi complessi come gli scacchi. Nonostante i promettenti esiti un recente studio condotto dai ricercatori dell’Università di Cambridge e dell’Università di Oslo ha dimostrato che l’intelligenza artificiale (AI), ambito in cui si inseriscono le reti neurali, presenta un limite che può essere spiegato tramite un paradosso della matematica.
![Il limite dell'intelligenza artificiale spiegato tramite un paradosso della matematica](https://sciencecue.it/wp-content/uploads/2022/04/machine-learning-g66a13211f_1280.png)
Reti neurali e intelligenza artificiale: qual è il limite?
Il funzionamento di una rete neurale prevede di sfruttare degli elementi di base, analoghi a dei neuroni. A questi vengono forniti dei dati che devono essere elaborati per risolvere problemi o compiere dei task. La rete prosegue quindi per una serie di iterazioni successive al fine di migliorare i collegamenti e trovare il pattern più adeguato alla funzione. Questo diventa quindi il “metodo” di default, in pratica come avviene nel processo di apprendimento umano naturale.
Il problema principale correlato a queste reti neurali riguarda la loro instabilità. È stato infatti dimostrato che una lieve modifica negli input, intesi come dati in ingresso, possa comportare stravolgimenti negli output, intesi come i risultati in uscita dal sistema. Un esempio di ciò è stato trovato in una precedente ricerca in cui si è visto come la modifica di un singolo pixel in un’immagine aveva fatto cambiare l’interpretazione dell’immagine da parte del sistema da cavallo a rana. Per pensare a un’applicazione più concreta, poi, è stato visto come un cambiamento impercettibile all’occhio umano in immagini di natura medica possa comportare diagnosi sbagliate nel 100% dei casi.
I sistemi di AI non sono però in grado di distinguere tra risultati plausibili e i propri errori. Questo li rende particolarmente pericolosi quando impiegati in analisi e task delicati. Non solo: il funzionamento dell’AI è basato nella maggior parte dei casi su delle black box di cui conosciamo solo l’output. Il risultato in uscita viene però fornito senza ulteriori informazioni circa confidenza o dubbi.
![Il limite dell'intelligenza artificiale spiegato tramite un paradosso della matematica](https://sciencecue.it/wp-content/uploads/2022/04/artificial-g0d6ae0c9f_1920-1400x903.jpg)
Un paradosso della matematica è la causa del limite dell’intelligenza artificiale
Il tallone d’Achille dell’AI è quindi l’instabilità della tecnologia. I ricercatori hanno identificato l’origine di questo problema in un paradosso matematico. Questo era stato introdotto nel ventesimo secolo dai teoremi di incompletezza di Kurt Godel e dalla loro “versione informatica”, opera di Alan Turing. L’evidenza portata dai due studiosi è che è impossibile provare se alcune affermazioni matematiche sono vere o false, motivo per cui alcuni problemi computazionali non possono dunque essere risolti con algoritmi. In pratica se un sistema matematico è abbastanza ricco e dettagliato da poter elaborare e descrivere tutta l’aritmetica, esso non è in grado di dimostrare la propria coerenza e completezza. Da questo discende che i limiti intrinseci della matematica vengono ereditati dall’AI, motivo per cui non possono esistere algoritmi per alcuni problemi.
A causa di questo paradosso, dunque, possono essere elaborate buone NNs, ma senza la possibilità di assicurarne la loro affidabilità. I ricercatori hanno però anche rassicurato il campo dell’AI: non tutte le reti sono “difettate” e intrinsecamente sbagliate. Esistono infatti aree e metodi in cui le NNs risultano affidabili. Cruciale è però l’individuazione di queste aree. È stata spiegato anche che in alcuni casi queste reti neurali possono esistere, ma manca l’algoritmo per ottenerle.
In pratica è come dire che una torta può esistere, potremmo anche conoscerne la ricetta, ma non abbiamo i mezzi per realizzarla. Inoltre, cercando di usare gli utensili a nostra disposizione il risultato ottenuto sarebbe completamente diverso da quello desiderato. Possono esserci anche casi in cui non siamo a conoscenza dell’adeguatezza dei nostri strumenti. Per continuare con l’analogia: proviamo a fare la torta e fino a quando non abbiamo il risultato finale non sappiamo se è davvero quella che vogliamo creare. O ancora: in alcuni casi il nostro mixer è sufficiente a preparare la nostra torta.
![Il limite dell'intelligenza artificiale spiegato tramite un paradosso della matematica](https://sciencecue.it/wp-content/uploads/2022/04/geometry-g63c200285_1920-1400x785.jpg)
Dal paradosso della matematica al futuro dell’intelligenza artificiale
Lo studio, quindi, evidenzia dubbi e limiti correlati al mondo dell’AI. Hansen, uno degli autori della ricerca, ha spiegato che attualmente i successi dell’AI superano di molto la teoria e la nostra comprensione. È quindi necessario un programma per capire al meglio metodi e strategie al fine di superare l’ostacolo dettato dall’instabilità.
La scoperta dei paradossi matematici non ne ha bloccato lo studio e lo sviluppo. Sono stati invece trovati nuovi metodi e strade partendo dai limiti in cui si era incorsi. Una cosa simile è auspicabile per l’AI: costruire nuovi sistemi in grado di risolvere problemi in maniera affidabile e trasparente, partendo proprio dai limiti attuali. Il prossimo step è quindi quello di combinare analisi numeriche, teorie dell’approssimazione e fondamenti computazionali per imparare a determinare quali sono le reti neurali implementabili e quali possono essere rese stabili e affidabili. In pratica come i teoremi di Godel e Turing hanno permesso di formulare teorie su possibilità e limiti della matematica, anche questa nuova consapevolezza potrebbe auspicabilmente portare a una serie di conoscenze simili nell’ambito dell’AI.