Home » Robot, violate le leggi della robotica di Asimov?

Robot, violate le leggi della robotica di Asimov?

Di recente si sono verificati due casi documentati in cui, due robot, hanno violato le note leggi della robotica di Isaac Asimov. In verità non è propriamente così e Close-up Engineering vi spiega cosa è realmente successo

digital-art-fantasy-art-robots-hands-butterfly-3d-1920x1200

digital-art-fantasy-art-robots-hands-butterfly-3d-1920x1200, credits: http://images.123hdwallpapers.com/20150811/digital-art-fantasy-art-robots-hands-butterfly-3d-1920x1200.jpg

Le tre leggi della robotica di Isaac Asimov, quelle che noi tutti conosciamo dopo averle apprese dai più famosi film di fantascienza, sono un insieme di leggi scritte alle quali obbediscono tutti i robot positronici, ossia quei robot dotati di cervello positronico, un dispositivo immaginario ideato dallo stesso scrittore russo:

«

  1. A robot may not injure a human being or, through inaction, allow a human being to come to harm.
  2. A robot must obey any orders given to it by human beings, except where such orders would conflict with the First Law.
  3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Law. »
«

  1. Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
  2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
  3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge. »

 

Seppur immaginario, il cervello positronico può essere benissimo inteso come intelligenza artificiale. Di recente si sono verificati due casi documentati in cui, due robot, hanno violato le prime due leggi della robotica. In verità non è propriamente così e Close-up Engineering vi spiega cosa è realmente successo.

Il primo caso è avvenuto in Russia, precisamente nella città di Perm. Il robot in questione si chiama Promobot, come l’azienda che lo ha costruito. Bianco, con carrello dotato di quattro ruote e due braccia; un display sul torace e uno al posto del viso. La porta del Lab Promobot, in cui si trovava l’androide, era aperta e il robot, che non ha trovato ostacoli sul suo cammino, è fuggito. Si tratta della prima fuga spontanea di un robot ad essere documentata. Secondo la stampa russa ed europea, si tratterebbe di una violazione delle leggi della robotica, ma i ricercatori assicurano: “Stava imparando ad orientarsi in modo autonomo mentre registravamo ogni sua risposta”. Il robot è stato ritrovato per strada, quaranta minuti dopo, dove era rimasto immobile paralizzando il traffico perchè le sue batterie erano ormai scariche.

Oleg Kivokurtsev, co-fondatore della compagnia, ha raccontato la storia al The Washington Post: “Il robot stava apprendendo gli algoritmi per il movimento automatico, quando l’ingegnere del laboratorio, in cui erano in corso i test ha dimenticato una porta di servizio aperta, Promobot ha così continuato a spostarsi sulle sue ruote, trovando naturale esplorare ambienti nuovi privi di ostacoli”.

Promobot
Promobot, credits: https://qzprod.files.wordpress.com/2016/06/promobot.jpeg?quality=80&strip=all&w=1145

Secondo alcuni media russi si tratterebbe in realtà di un’operazione di marketing organizzata proprio dalla Promobot per attirare l’attenzione sul prodotto: la capacità di orientarsi nello spazio dell’androide è dovuta ad un addestramento avanzato indicato con la sigla V3. La Promobot prevede di presentare al pubblico il robot nel mese di settembre, androide programmato allo scopo di interagire con clienti e visitatori dei centri commerciali.

Il secondo caso è quello successo alla Berkeley University, in California. La stampa parla di “un famelico braccio robotico che ferisci tutti gli esseri umani che gli si avvicinano”, ma a dirla tutta le cose non stanno così.

Si tratta di un braccio mobile armato di ago, che punge con forza lo sfortunato che decide di tentare la sorte, appoggiando il dito su un apposito bersaglio: è il robot a decidere se ferire o meno ma non si tratta di spontanea volontà, bensì di un preciso algoritmo. Il suo creatore è Alexander Reben, artista ed esperto di robotica dello Stochastic Lab della Berkeley University.

Nessuno ha mai realizzato un robot pensato espressamente per danneggiare o ferire qualcuno”, ha spiegato l’artista alla Fast Company. “Volevo costruire qualcosa del genere, per portarlo fuori dal mondo degli esperimenti mentali, e trasformarlo in qualcosa di reale. Perché quando qualcosa esiste realmente sei costretto a confrontartici. Diventa più urgente, e non puoi più perdere tempo a pontificare”. L’intento di Roben è far ragionare la gente su come affrontare i pericoli che potrebbero rappresentare i robot, prima che si concretizzino. “Nessun ente di ricerca o azienda di robotica vuole passare alla storia come la primo ad aver realizzato una macchina che causa dolore intenzionalmente, e per questo il compito spetta al mondo dell’arte”. In realtà le cose non stanno così, in quanto moltissime aziende di armamenti e anche diverse nazioni come Usa, Israele, Inghilterra e Norvegia, stanno sviluppando sistemi di armamenti robotici, pensati per scegliere i propri bersagli in modo autonomo.

Nel maggiore dei casi per i sistemi attualmente esistenti, noti come semi-autonomous weapons, c’è bisogno dell’autorizzazione di un operatore umano per portare a segno l’attacco, ma in alcuni casi gli armamenti interagiscono col nemico senza alcun impulso umano: il New York Times racconta che l’Esercito Americano e la Lockheed Martin, hanno già sperimentato un sistema missilistico intelligente, in grado di volare senza contatto radio con l’aereo che lo lancia, evitare i sistemi di difesa nemici, scegliere un obbiettivo prioritario tra diversi possibili, e abbatterlo. Il pentagono lo ha dichiarato come arma semi autonoma, in quanto una direttiva del 2012 vieta agli USA di sviluppare e utilizzare armamenti privi di un controllo umano ma per altri esperti si tratterebbe già di un lethal autonomous weapons systems.

Diverse organizzazioni mondiali si sono attivate per scongiurare l’utilizzo di simili armamenti smart, come l’International Committee for Robot Arms Control (Icrac), e la lettera aperta del Future for Life Institute per chiedere che venga messa al bando mondiale le leggi a cui hanno aderito personaggi del calibro di Stephen Hawking e Elon Musk.

Tornando alle leggi della robotica, nessun pericolo: i robot in questione non hanno agito di propria iniziativa ma seguendo algoritmi ed istruzioni precise e ben programmate.