Roboetica. Anche le macchine saranno capaci di soffrire?

Il robot, unione di mente sintetica e di corpo sintetico, è un artefatto capace di apprendere e dotato di una certa autonomia di decisione e comportamento. Esso rappresenta l’ultima versione del nostro tentativo plurisecolare di costruire l’uomo artificiale. Rispetto alla prima intelligenza artificiale, astratta e disincarnata, i robot segnano il recupero della dimensione corporea e sensoriale, compreso il movimento, e ciò comporta una loro interazione più intensa con gli umani. In una prospettiva di stretta convivenza uomo-robot, non possono non sorgere alcune domande. Fino a che punto siamo disposti a convivere coi robot e ad affidarci a loro nella vita quotidiana, nell’accudimento e nelle cure? Quali comportamenti dei robot dovremmo tollerare, incoraggiare o vietare? E di chi sarebbe la responsabilità di un loro eventuale comportamento dannoso?
E viceversa: se i robot dovessero un giorno diventare intelligenti e sensibili (quasi) quanto gli umani, potremmo continuare a considerarli macchine come le lavatrici o le automobili? O dovremmo adottare atteggiamenti empatici e comprensivi? Dovremmo arrivare ad attribuire loro dignità etica?
La domanda sulla responsabilità dei danni è importante perché rivela il conflitto tra la natura artificiale dei robot, per cui essi dovrebbero obbedire alla nostra programmazione, e la loro (parziale) autonomia che, in linea di principio, potrebbe indurli a decisioni nocive nei nostri confronti. Erano problemi di questo genere che aveva in mente Asimov quando formulò le “leggi della robotica”. In questo campo le previsioni si mescolano facilmente con la fantascienza, ma accanto alle speculazioni ci sono le realtà: in Giappone (il Paese di gran lunga più avanzato nella costruzione e nell’impiego dei robot) si tocca con mano quanto possa diventare intenso il rapporto uomo-macchina quando il robot sia un (o una) “badante” con sembianze umane oppure quando abbia più o meno le fattezze e il comportamento di un animale domestico: Aibo, il robot cane della Sony, ormai fuori produzione, ha svolto per anni le funzioni di “animale” da compagnia. La proiezione affettiva è tanto forte da suscitare problemi psicologici ed etici.

I robot lavorano e sempre più lavoreranno in collaborazione con noi, una collaborazione che per il momento si configura come dipendenza, ma che in futuro potrebbe assumere carattere (quasi) paritario per i continui progressi tecnici. La distinzione, oggi chiarissima, tra uomo e robot tende ad attenuarsi, l’antropologia si confonde con la “robotologia” e innesca il problema della sostituibilità del robot all’uomo, che presenta aspetti tecnici (rapporto mezzi-fini); aspetti economici (rapporto costi-benefici); aspetti legali (responsabilità dei danni provocati da un robot a una persona). Inoltre: esistono settori in cui la sostituzione sia da escludere? Tra gli specialisti è diffusa l’opinione che costruire macchine intelligenti e affiancarle o sostituirle agli esseri umani sia sempre utile alla società. Ma nel rapporto uomo-macchina è l’uomo che, per la sua flessibilità, di solito deve adattarsi alla tecnologia e non il contrario. Questo adattamento comporta trasformazioni antropologiche che da alcuni, impropriamente, sono state assimilate a una “disumanizzazione”. In realtà si tratta di modifiche di tipo evolutivo, come ve ne sono sempre state nella nostra storia. Il vero problema è che la velocità incalzante di queste trasformazioni le rende spesso dolorose. Come si vede, i problemi sollevati dalla stretta interazione, o meglio dalla convivenza, tra uomo e robot sono di natura non solo cognitiva, culturale o sociale, ma anche etica. È singolare che il dibattito etico si accenda intorno alle innovazioni biologiche, genomiche e procreative, mentre sul fronte della robotica si osserva una sorta di tacita accettazione dei progressi tecnici. In realtà il problema etico, già di per sé arduo nel mondo di oggi, viene complicato da questi nuovi attori che sono i robot. Tali problemi sono importanti e urgenti e giustificano l’inaugurazione di un settore di ricerca chiamato “roboetica”, indirizzato allo studio dei rapporti tra umani e robot sotto il profilo etico. A questi studi è dedicato il Comitato tecnico per la roboetica in seno alla Robotics and Automation Society dell’Ieee (Institute of Electrical and Electronics Engineers).

Mentre con le sue leggi Asimov intendeva regolare il comportamento dei robot nei nostri confronti, la roboetica attuale si occupa anche della nostra condotta nei confronti dei robot. Ad essi vengono affidati molti dei compiti finora svolti dagli animali, dagli schiavi e dalle macchine tradizionali, quindi ci si può chiedere: potrà mai accadere che la sensibilità sempre più diffusa nei confronti degli schiavi e degli animali si trasferisca prima o poi anche ai robot? Gli sforzi che facciamo per dotarli di intelligenza, autonomia, capacità di apprendere e tendenzialmente anche di sensibilità e coscienza, avranno come corollario una loro equiparazione a qualcosa di più nobile e vicino a noi? Oppure ai nostri occhi prevarranno sempre la loro natura di macchine e la loro funzione servile? Ma c’è un’altra domanda, più inquietante: che diritto abbiamo di costruire macchine in prospettiva tanto intelligenti e sensibili da capire che non lo sono abbastanza? Perché suscitare dal nulla creature tanto simili a noi da essere capaci di soffrire? Il loro dolore, scaturito dalla coscienza di non essere del tutto assimilabili agli uomini, sarebbe un triste corollario della nostra abilità demiurgica: dando origine a una schiatta di “macchine dolenti”, ci assumeremmo una pesante responsabilità. Infine, il rapido progresso di questa tecnologia non può non avere effetti profondi sull’immagine che abbiamo di noi stessi e sul nostro stesso essere “umani”: specchiandoci in quello straniante alter ego che sta diventando il robot, quale immagine ce ne ritorna? Riusciremo, per differenza o per similarità, a capire qualcosa di più di noi stessi? Queste rapide considerazioni potrebbero e forse dovrebbero aprire una discussione approfondita sul “principio di precauzione” nell’ambito della roboetica, soprattutto alla luce della spinosissima questione dei robot da guerra, costruiti, contro ogni dettato etico, per uccidere esseri umani.

 

Giuseppe O. Longo – avvenire.it