Sezione Medicina

da Leadership Medica n. 10 del 2007

"Nel suo racconto “I, Robot”, del 1950, Isaac Asimov per primo immaginò che delle macchine potessero diventare agenti morali. Infatti, ai suoi robot piaceva un mondo potersi mettere tranquilli ed analizzare le implicazioni morali delle proprie azioni. Al contrario, Qrio (l’ultimo robot della Sony) non sa nulla, non glie ne importa nulla di nulla, e non ragiona un briciolo. Impropriamente programmato, può schiacciare il grilletto di una pistola, dar fuoco ad una casa, e persino tagliarti la gola mentre dormi, per poi zompare in un affollato supermercato e farsi saltare in aria mentre urla qualche slogan politico (…) Possiamo provare a fare un robot che si comporti bene, anche se non siamo mai riusciti a far funzionare quel meccanismo in noi stessi".
(Bruce Sterling, scrittore, Wired Magazine, maggio 2004, reportage dal Primo Simposio Internazionale di Roboetica, Sanremo 2004).

Nella letteratura mondiale, è ricorrente il tema della creatura artificiale che si ribella al suo creatore. Il mito della ribellione degli automi può essere letto, in senso feuerbachiano, come la traslazione, sull’oggetto dell’ingegno umano, della pulsione malvagia del soggetto umano, suo manifattore. Il creatore , o, più spesso, l’utilizzatore, sono i “cattivi” del dramma. Quindi, non gli automi che si ribellano agli umani, ma alcuni umani che impiegano gli automi contro altri umani. Ecco perché, in ultima analisi, la Roboetica non è l’etica dei robot, ma dei robotici, e dei produttori di robot.
Alle voci apocalittiche - tra cui lo Joseph Rotblat, noto fisico, presidente della Pugwash Conference for World Affairs, recentemente scomparso, e Bill Joy, della Sun Microsystem - che vedono nella Robotica e nei robot una minaccia all’umanità, si affiancano interventi più ottimisti e programmati.
Il robotico Paolo Dario, dell’Arts Lab della Scuola Superiore Sant’Anna di Pisa, in collaborazione con il filosofo José Maria Galvàn, della Pontificia Università della Santa Croce, hanno introdotto nella comunità robotica mondiale il concetto e le riflessioni sulla Tecnoetica, la dimensione etica della tecnologia. La definizione di Tecnoetica, come presentata da Galvàn durante il seminario italo-giapponese "Humanoids - A Techno-Ontological Approah" (IEEE International Conference on Humanoid Robots, Tokyo 2001), presuppone un punto di vista ottimista rispetto alla tecnologia, come elemento centrale del perfezionamento umano. La Tecnoetica afferma il valore positivo degli oggetti tecnologici, poiché "l’umanità è tecnologica per natura. La dimensione tecnica non è una aggiunta all’uomo, ma forse uno degli elementi centrali in cui l’uomo si distingue dagli animali (…) Gli animali sono dotati naturalmente degli strumenti necessari per la loro interazione col resto del creato; la persona umana nasce carente, ma ha la possibilità di costruire strumenti artificiali, essendo essa stessa una creatura artificiale. Si intende per artificiale ciò che è formalizzato dalla libertà , non dall’istinto" (http://www.usc.urbe.it/html/php/galvan/).

Nel 2002, chi scrive ideò il concetto ed il termine di Roboetica, per indicare il rapporto positivo che dovrebbe intercorrere tra il progettista/produttore/utente di robot e queste macchine intelligenti. Non solo norme, dunque, ma la complessa relazione che lega l’essere umano libero ai suoi artefatti intelligenti ed autonomi.
In seguito all’appello di chi scrive, si riunirono, nel gennaio del 2004 nella storica Villa Alfred Nobel a Sanremo, non solo esperti di robotica dall’Europa, Giappone e Stati Uniti, ma anche filosofi, sociologi, antropologi e uomini di cultura in quello che è stato il Primo Simposio Internazionale sulla Roboetica (www.roboethics.org). In quell’occasione, si discusse approfonditamente di etica artificiale, ma più ancora di etica umana. Infatti prima di affrontare il problema dell’etica artificiale di cui dovrebbero (ma, lo potranno?) essere dotati i robot, occorre studiare e concordare l’etica umana di chi queste macchine progetta, produce ed impiega.
I partecipanti il Simposio di Sanremo si trovarono d’accordo sul fatto che sia responsabilità soprattutto della comunità dei robotici delineare la Roboetica e presentarla alla società. I ricercatori robotici, infatti, in collaborazione con esperti di scienze umane, possono fare molto al fine di accrescere la consapevolezza del pubblico circa le problematiche della robotica, affinché la società possa prendere parte attiva nel processo di creazione di una coscienza collettiva, in grado di individuare e prevenire un uso errato della tecnologia. L’obiettivo, e la speranza, è che si possa giungere ad un’etica condivisa da tutte le culture, tutte le nazioni e tute le religioni, in base alla quale la costruzione e l’impiego di macchine intelligenti contro gli esseri umani sia considerato un crimine contro l’umanità.
Quanto l’impresa fosse nello Zeitgeist è indicato dal fiorire di discussioni ed iniziative che sono seguite il Simposio di Sanremo. Nell’aprile del 2004, nel corso della International Robot Fair di Fukuoka, Giappone, i partecipanti (scienziati robotici e rappresentanti dell’industria robotica giapponese) firmarono la World Robot Declaration:", la versione robotica del “giuramento di Ippocrate”:

“Certi dello sviluppo futuro della tecnologia robotica e dei molti contributi che i robot potranno dare all’umanità, affermiamo che: la prossima generazione di robot saranno partner che coesisteranno con gli umani. Assisteranno gli umani sia fisicamente che psicologicamente; contribuiranno alla realizzazione di una società sicura e pacifica. Affinché il pubblico accetti ed accolga i robot nella società, sarà necessario definire ed applicare determinati standard, modificare gli ambienti di vita e lavoro, e che le istituzioni pubbliche promuovano l’introduzione dei robot".

Sempre nel 2004, in seguito al successo del Simposio di Villa Nobel sulla Roboetica, la Robotics&Automation Society della IEEE decise la creazione di un Comitato Tecnico (TC) sulla Roboetica “che possa fornire alla Robotics&Automation Society della IEEE il quadro di riferimento relativo alle implicazioni etiche delle ricerche robotiche, promuovendo la discussione tra ricercatori, filosofi, moralisti, e promuovendo al contempo la creazione di strumenti condivisi per gestire problemi etici relativi”.

Nel febbraio del 2005, il Network europeo, istituito dalla Commissione Europea (CE), e che riunisce tutte le attività robotiche che si svolgono in Europa, ha finanziato il progetto per un Atélier (ovvero, un seminario di studi) sulla Roboetica, presentato dalla Scuola di Robotica in collaborazione con i progetti della CE, in ambito “Beyond Robotics”, Cogniron (Cognitive Robot Companion -- CNRS-Laboratoire d’Analyse et d’Architecture des Systèmes (LAAS) e Neurobotics (la fusione tra le neuroscienze e la Robotica per estendere ed aumentare le capacità umane -- Arts Lab della Scuola Superiore Sant’Anna di Pisa).
L’ Atelier si è svolto a Genova, nel febbraio-marzo del 2006 e ha visto la partecipazione di un centinato tra ricercatori di scienze fisiche e umanistiche.

Il primo obiettivo dell’Atelier è stata la redazione di una Roboethics Roadmap. Si tratta di linee guida molto generali che costituiscono uno strumento comune per tutta la comunità degli interessati, per: a) lo sviluppo di un linguaggio comune della Roboetica tra gli studiosi e gli stakeholder; b) la conoscenza di campi contigui, la condivisione delle idee; c) sviluppo di un’indagine globale sui principali paradigmi dell’etica nelle diverse culture, religioni e fedi; d) la definizione di una Stele di Rosetta delle linee-guida dell’etica, che sia modulata a seconda delle diverse culture, religioni, fedi; e) l’attivazione di studi specifici. La Roadmap è stata oggetto di studio e revisione da parte di molti studiosi, nel corso del 2006, ed è stata presentata alla Conferenza Internazionale ICRA’07 a Roma, nell’aprile del 2007.

Gli argomenti principali sviluppati nella Roadmap riguardano gli effetti sociali, economici ed etici dell’introduzione dei robot nella società, in particolare la relazione umani/robot.
Vi è un settore dove i robot hanno già determinato dei cambiamenti, anche drastici, ed è il settore industriale, dove la sostituzione del personale umano con robot ha creato problemi di disoccupazione, problemi che potranno solo aumentare, a man a mano che i robot diventeranno sempre più autonomi.

Per quanto riguarda gli effetti nella società, ci si chiede, per esempio, che cosa succederà quando questi robot intelligenti saranno i nostri aiutanti e maggiordomi, e quando la nostra vita dipenderà da loro. La dipendenza dai robot potrebbe diventare più pericolosa e devastante di quella dalla tv, da Internet e dai videogame.
Sulla sanità, l’introduzione dei robot avrà risultati senza dubbio positivi; ma occorre sorvegliare gli abusi. L’Etica Medica dovrà studiare questioni che riguardano la robotica chirurgica – per esempio, un punto centrale potrebbe essere la deviazione di spostare l’attenzione dal paziente alla tecnologia. Un altro settore medico fondamentale è la Bio-robotica, ovvero la progettazione ed applicazione di protesi robotiche e sistemi bionici ibridi. In questo contesto, la Robotica sta incontrando problemi affrontati da un altro punto di vista dalla Bioetica.
Un altro settore da studiare è quello della disparità di accesso alla tecnologia. Uno scorretto processo di precettazione dei robot può sia dare vita a trust che rendere i prodotti robotici troppo costosi per molti dei possibili beneficiari ed acquirenti. Pensiamo al digital divide tra Nord e Sud del mondo.
Un problema senza dubbio attualissimo è il possibile e deliberato abuso delle tecnologie robotiche, fino al terrorismo. Inoltre, i robot avranno un drammatico effetto nelle guerre future. Eserciti di robot potrebbero essere scatenati in guerre contro popolazioni più arretrate, con enorme dispendio di vite umane.
In ultima analisi, uno dei settori che verranno maggiormente chiamati in causa sarà il Diritto. Chi sarà ritenuto  responsabile delle azioni dei robot? Il progettista? L’Utente? Il robot?

Preistoria della robotica

Ci chiediamo come mai i robot suscitino così tante dispute e emozioni contrastanti.
In effetti, il fascino legato alla creazione di “macchine” simili all’uomo deve molto del suo successo alle leggende costruite intorno a queste creature fantastiche. Cercheremo qui di ricostruire brevemente la storia di queste “macchine” attraverso le principali realizzazioni fatte durante i secoli. Questa storia è stata legata, nel periodo greco alla mitologia, nel medioevo agli alchimisti e, in tempi più recenti, allo sviluppo delle tecnologie: nell’800 a quelle meccaniche e, ai giorni nostri all’informatica e alla intelligenza artificiale.

Il robot come macchina antropomorfa ha origini antichissime. Già tra gli egiziani era comune esibire statue animate usate dai sacerdoti per comunicare la volontà “divina” al popolo. Nella mitologia greca si incontrano automi come Talos, gigante di bronzo costruito da Dedalo per difendere l’isola di Creta lanciando in mare degli enormi macigni.
La leggenda racconta che a Tebe erano state costruite delle statue in grado di parlare e muovere le braccia mentre ad Heliopolis era possibile ammirare dei simulacri che potevano scendere dai loro piedistalli.

In Persia, vicino al tempio di Susa, sono stati rinvenuti degli oggetti giocattolo con parti mobili. In particolare un porcellino su ruote che era possibile trainare attraverso una fune. Oggetti giocattolo sono stati rinvenuti anche nelle tombe egiziane; si tratta di Tigri e coccodrilli che possono spalancare la bocca tirando una funicella.

Erone di Alessandria, un matematico che visse a cavallo tra il I e II secolo a.C. ci ha lasciato dei compendi di Meccanica dove descrive alcuni oggetti che, o sfruttando il soffio di vapore prodotto da una rudimentale caldaia o la forza generata da un getto d’acqua, permettevano a statue di muoversi o a canne musicali di suonare. Si trattava di complesse fontane dove un ingegnoso sistema di tubi e leve permetteva alle statue di muoversi ed alla figura animale, un drago o un pesce dalle forme bizzarre, di emettere un getto d’acqua dalle fauci spalancate.

Nel 1200 si narra che il frate francescano Ruggero Bacone fece realizzare una testa parlante affinchè spiegasse come costruire un muro di difesa per proteggere l’Inghilterra.
Teste parlanti erano possedute anche da altri come dal maestro di Tommaso D’Acquino Alberto Magno, dal papa Silvestro II dal vescovo Roberto Grossatesta .
Nel 1500 fu la volta degli alchimisti che diedero le indicazioni per costruire non solo la testa ma l’intero corpo di un essere artificiale: l’homunculus. Riportiamo di seguito la “ricetta” data da Paracelso medico e alchimista svizzero nel De natura rerum:
Questa ricetta contribuì alla leggenda di Faust. Ricordiamo che nell’omonimo dramma di Goethe, viene creato un homunculus “un ometto ben garbato e graziosamente formato che gesticola”.

Nella seconda metà del 1500 si sviluppa la leggenda del Golem. Questa parola talmudica indica qualcosa di non completo, embrionale. Questi erano esseri artificiali di fattezza umana dotati di vita propria. Si racconta che attorno al 1550 Elia da Chelm avesse creato uno di questi uomini artificiali che prendeva vita attraverso le quattro parole che in ebraico formano la parola dio: YHWH.

Un’altra leggenda narra che il rabbino di Praga, Giuda ben Loew, creò uno di questi Golem per salvare gli Ebrei da un nuovo Pogrom. Questo, insieme a due suoi assistenti, si recò, di notte, sul fiume Moldava e con l’argilla che ne ricopriva le rive plasmò una figura umana. Alla fine del rito il Rabbino impresse sulla fronte della creatura il sacro nome dandole la vita. Il Golem era muto ma in grado di leggere nelle menti ed individuare, quindi, chi voleva fare del male agli ebrei. Aveva anche altre caratteristiche che lo rendevano praticamente invulnerabile oltre ad avere una immensa forza fisica. Il Golem servì il Rabbino come custode del tempio. Ma alla fine si ribellò al suo creatore e solo quando questo riuscì a rimuovere dalla sua fronte il nome che lo aveva animato ritornò una massa di argilla informe e senza vita.

Si può quindi individuare una fase “preistorica” della robotica nella quale storia e leggenda si confondono. In questa fase lo sviluppo della tecnologia meccanica, con la costruzione dei primi ingranaggi permise di realizzare macchine non antropomorfe come nel caso degli oggetti progettati da Erone di Alessandria.
Ma la prima vera tecnologia si sviluppò a partire dal medioevo. E proprio a partire da questo periodo si cominciano a costruire le prime figure mobili che arricchivano i campanili e gli orologi delle chiese. Infatti nel 1574 fu costruito per l’orologio della cattedrale di Strasburgo un gallo meccanico. Questo, allo scoccare del mezzogiorno, appariva, apriva il becco, mostrava la lingua, batteva le ali ed emetteva, per tre volte, un sonoro chicchirichì.

Intanto miglioravano le tecniche per la lavorazione dei metalli ed andava aumentando la precisione dei meccanismi ad orologeria.
Nel 1738 fu realizzata da Jacques de Vaucanson un’anatra meccanica in grado di mangiare, bere, starnazzare ed espellere dopo la digestione i prodotti di scarto per vie “naturali”. Solo le sue ali contenevano un numero elevatissimo di parti mobili: circa 400.
Si può notare la complessità e la enormità degli ingranaggi per controllare tutte le funzioni dell’anatra rispetto all’anatra stessa.
Vaucanson costruì anche due “musicisti”: un flautista ed un tamburino. Il flautista, in particolare era in grado di suonare il flauto attraverso un sistema di tubi che convogliavano sullo strumento un flusso di aria proveniente da un mantice.

Alla fine del 1700, un inventore ungherese, il Barone Wolfgang von Kempelen inventò un automa in grado di giocare a scacchi. Questo giocatore di scacchi era un manichino dotato di braccia mobili seduto davanti ad una scacchiera. La base della scacchiera era formata da un mobile chiuso che, all’apertura, rivelava un grande numero di complicati ingranaggi. L’automa era in grado di spostare i pezzi sulla scacchiera ma soprattutto di effettuare delle mosse che spesso lo portavano alla vittoria anche con giocatori “umani” bravi. Il Barone von Kempelen girò il mondo con il suo giocatore di scacchi raccogliendo fama, notorietà ma soprattutto soldi provenienti dai biglietti acquistati per assistere allo spettacolo. Il grande scrittore E.A. Poe, dopo aver assistito ad una partita dell’automa concluse che non poteva essere autentico, ma che sotto ci doveva essere qualche trucco. Nel suo racconto “Il giocatore di scacchi di Maelzel”, Poe analizza il comportamento del giocatore durante una partita ne conclude che”(…) calcoli aritmetici sono, per la loro stessa natura, determinati e fissi”, mentre le mosse degli scacchi non sono mai decise sulla base di una logica a priori.
Concludeva dicendo che se il giocatore fosse stato vero sarebbe stata la “più meravigliosa invenzione della storia dell’umanità”. Poe aveva ragione infatti, dopo qualche anno, l’inganno fu scoperto sembra per un banale raffreddore che fece starnutire il giocatore nascosto nella base della macchina. Si conosce anche il nome di questo giocatore: Schlumberger.

Tra il 1770 ed il 1773 due inventori: Pierre e Henri-Lous Jaquet-Droz costruirono tre sorprendenti androidi: uno scrivano, un disegnatore ed un musicista. Questo era capace di scrivere lettere fino a 40 caratteri e, attraverso la sostituzione di un disco, poteva scrivere diversi tipi di testo. Il disegnatore era in grado di eseguire vari tipi di disegno: da Luigi XV ad una nave completa di velatura. Il musicista era un androide che rappresentava una ragazza di 16 anni. Questa era in grado di suonare un organo mimando anche le pause salutando la fine della esecuzione con un inchino.
Questi oggetti sono ancora funzionanti e si trovano nel Musée d’Art e d’Histoire di Neuchatel, in Svizzera tranne il disegnatore che si trova al Franklin Institute di Filadelfia.
Siamo così arrivati all’800, in piena rivoluzione industriale. Ormai il vapore permetteva di costruire macchine che potevano sostituire l’uomo nel lavoro meccanico. Ma per la robotica questo è un periodo di stasi: nessun progresso significativo fu registrato tra il gli inizi dell’800 e i primi anni del ‘900.
Questo potrebbe essere in qualche modo spiegato con la necessità di costruire macchine che non fossero dei semplici automi ma in grado di memorizzare e, soprattutto, di prendere decisioni. Ciò divenne possibile negli anni 40 quando furono realizzati i primi elaboratori.

Fantascienza e Robotica

Che i robot siano nati in un interregno tra quello che oggi si chiama edutainment e lo sviluppo della meccanica e dell’ingegneria è dimostrato dal fatto che il termine “robot” sia stato ideato da uno scrittore di teatro, e che il capostipite dei moderni robot umanoidi sia stato Robotrix, nel film Metropolis, di Fritz Lang.
R.U.R. (Rossum’s Universal Robots) (I robot universali di Rossum) è un dramma fantascientifico in tre atti del ceco Karel Čapek (1890-1938). Pubblicato nel 1920, in esso per la prima volta compare il termine robot, che viene inventato derivandolo dalla parola ceca robota (schiavitù).
Nel 1926, lo scrittore, architetto e pittore  Fritz Lang dirige il colossal Metropolis (1926), che diventa una pietra miliare della nuova arte del cinema che in quegli anni si sta sviluppando in modo impetuoso. Protagonista, per la prima volta sullo schermo, il robot Robotrix, l’inquietante alter-ego della protagonista Maria, che svolge un ruolo cruciale nel plot dell’opera.
Senza dubbio ispirato da questi precedenti artistici, ma anche dai tragici eventi bellici, nel 1942, Isaac Asimov, il famoso autore di fantascienza che per primo coniò la parola “robotics” per indicare la scienza robotica, pubblicava le sue Tre Leggi, in un racconto intitolato Roundabout.

Prima Legge: Un robot non può arrecare danno a un essere umano, né permettere che, a causa del suo mancato intervento, un essere umano venga danneggiato.
Seconda Legge: Un robot deve obbedire agli ordini impartiti da esseri umani, a meno che quegli ordini non siano in contrasto con la Prima Legge.
Terza Legge: Un robot deve difendere la propria esistenza, a meno che questa difesa non sia in contrasto con la Prima o la Seconda Legge.

Successivamente, aggiunse una Quarta Legge (“Un robot non può recar danno all’umanità, né può permettere che, a causa del suo mancato intervento, l’umanità venga danneggiata”).
È interessante leggere come Asimov arrivò alle Leggi, partendo dalla sua concezione del ruolo positivo della tecnologia: “Nel 1920, per la prima volta, la fantascienza diventava una forma di arte popolare (…) e uno dei canovacci di base (…) fu l’invenzione dei robot. Influenzati dai ben noti fatti e dal fatale destino dei Frankenstein e dei Rossum, sembrava che vi fosse solo una sceneggiatura possibile: i robot venivano creati e distruggevano poi il loro creatore (…) Io mi stufai ben presto di questa noioso tema, vecchio di cent’anni (…) La conoscenza ha i suoi pericoli, è vero, ma la risposta deve essere proprio la fuga dalla conoscenza? Cominciai così nel 1940 a scrivere le mie storie di robot, nuove storie. I mie robot erano macchine progettate da ingegneri, non psuedo-uomini creati da uomini blasfemi”.

Robotica e società

In tutto il mondo, molti settori della cultura umanistica e scientifica - e anche di quel cluster rappresentato dall’insieme dei movimenti di impegno, solidarietà sociale e di critica al sistema economico globale - sottolineano la necessità della riscoperta dell’aspetto etico nella scienza e nella tecnologia. Vi sono punti di vista molto professionali, come quelli espressi, per esempio, dai Comitati Bioetici. E approcci più globali, sollecitati da esigenze morali complesse, riguardanti la responsabilità degli scienziati nei confronti dei problemi generali e urgenti del pianeta (il divario Nord/Sud, lo stato di salute del nostro ecosistema, la difesa di valori umani globalmente intesi), che vorrebbero rispondere a domande del tipo: Dove va la scienza? Quale futuro stiamo preparando ai nostri nipoti? A quali valori stiamo appellandoci?
In questo vasto campo di problemi ricadono le applicazioni robotiche nel settore delle armi; del digital divide tra Nord e Sud del mondo; della privacy e, in senso lato, della dipendenza delle nostre società dalla tecnologia (identità ed integrità umane).
Da pochi anni, un gruppo di scienziati e ricercatori robotici si stanno ponendo, a diversi livelli e con diversi approcci, domande riguardanti l’eticità delle loro ricerche. Ci troviamo, infatti, di fronte ad una nuova scienza, i cui paradigmi sono ancora allo stato nascente. La Robotica, infatti, è una scienza emergente nata dalla fusione di molte discipline appartenenti al campo delle scienze umane e di quelle naturali. Chiunque, anche da amatore, si avvicini ad essa, ne riconoscerà le mille strade e rivoli che caratterizzano il fiorire di una rivoluzione scientifica, che invade i campi tradizionali del sapere e che impone problemi nuovi e complessi di natura etica, filosofica, religiosa.
Le questioni etiche poste dalla Robotica rientrano, da un lato, nel generale quadro relativo all’impiego dei prodotti della scienza e della tecnologia, e riguardano le responsabilità del progettista di programmi di computer e di robot, quelle dei produttori e dell’utente nell’impiego di tecnologie sofisticate.

Nello stesso tempo, lo sviluppo delle interazioni tra uomini e robot, e le connessioni sempre più strette tra ricerche robotiche e scienze biologiche e sociali, per scopi di studio dell’essere umano e delle società, e a scopi applicativi, sollevano nuovi problemi. "Nel prossimo futuro, la comunità dei robotici svilupperà macchine il cui comportamento sarà il risultato emergente e, per certi versi, imprevedibile, dei progetti e delle decisioni assunte sia da umani sia da altre macchine. Inoltre, l’interazione e l’integrazione fisica di esseri umani e sistemi robotici sta crescendo esponenzialmente. L’impatto sociale, economico, psicologico, filosofico ed anche spirituale di queste ricerche non è ancora chiaro, ma certamente richiede una precisa analisi e attenzione da parte della comunità dei robotici"(Dario, 2005). Infatti, a differenza di altri sistemi tecnologici, seppure sofisticati - come l’energia nucleare - o di altre discipline - come la bio-ingegneria - la robotica realizza macchine intelligenti ed autonome, che non sono soltanto oggetti tecnologici ma, sempre più, soggetti dotati di capacità decisionali. A questo punto, la domanda classica sulla titolarità della responsabilità (chi è il responsabile/i dell’errore o del danno commesso o provocato da una macchina? del progettista? del produttore? dell’utente finale?) vedrà l’emergere di un’altra figura: della macchina intelligente.
Con la bioingegneria, la robotica condivide un aspetto fondamentale nella discussione etica, ed è l’imprevedibilità dei prodotti della scienza robotica. Abbiamo, infatti, un’incompleta conoscenza sia dei prodotti dell’Informatica e della Robotica. Questo pone, insieme con la tradizionale deontologia e prudenza professionale, regolate da norme e standard, la definizione di ulteriori princìpi precauzionali, lo sviluppo di più accurate tecniche di validazione e la descrizione precisa dei contesti di impiego di queste sofisticate macchine. Tutto sommato, fino a qui ci muoviamo ancora nel settore della responsabilità ingegneristica e dell’ambito delle misure standard internazionali di sicurezza.
Allora, dove comincia l’etica? Evidentemente, dalla nostra concezione di persona umana, della sua dignità e rispettabilità, e quindi, qui, dei suoi rapporti con i prodotti del prodotti del proprio ingegno, verso se stesso e verso la società. E, da una sempre più alta concezione di essere umano deriveranno, a cascata, i comportamenti etici universalmente condivisi degli scienziati, giù fino ai più asettici regolamenti e standard. Argomento inevitabile, ma troppo complesso per essere affrontato ora.
Due problemi, in breve. Il primo, riguarda la relativistica definizione di etica. Esiste una sola etica o invece, come sappiamo, molte etiche, che dipendono dai paradigmi storici, culturali, religiosi? In tale contesto, nel corso del citato Atélier sulla Roboetica del 2006, è stato presentato un survey delle diverse concezioni di persona umana in relazione agli sviluppi della Robotica.
Il secondo, più fondamentale. È etico studiare e progettare la costruzione di un entità autonoma intelligente dotata di capacità di agire nel mondo reale? Fino a che punto di imitazione dell’essere umano si dovrebbe arrivare? Di quale grado di autonomia robotica dovremmo dotare i nostri robot? Che cos’è la persona umana e che cos’è una macchina intelligente?
Noi vorremmo presumere, qui, che la tecnologia sia "buona" in quanto prodotto dell’ingegno umano teso al proprio perfezionamento. Un perfezionamento perseguito, per esempio, dagli ingegneri del Rinascimento italiano che, con le loro scoperte, "aumentarono" le capacità di intervento dell’uomo su se stesso (medicina) e sulla natura (fisica). Presumendo dunque un complessivo uso "buono" della tecnologia robotica, ecco un elenco dei campi di applicazione della Roboetica, settori dove comunque l’introduzione dei robot potrà creare problemi o effetti collaterali non voluti, che la società dovrà essere pronta ad affrontare. Non sempre i problemi vengono a sproposito: per esempio, dover affrontare il tema della introduzione crescente di macchine intelligenti allo scopo dia alleviare la fatica dell’uomo, o di evitargli compiti noiosi, sgradevoli o pericolosi porterà ad una ridefinitone di lavoro umano molto salutare.

Economia

La sostituzione di macchine intelligenti a lavoratori umani potrà mettere in crisi il mercato del lavoro. Le macchine hanno già sostituito gli umani in molte attività, e, a mano a mano che le macchine diventeranno più intelligenti, il processo non potrà che crescere.
Inoltre, molte fondamentali funzioni economiche saranno gestite da robot. Trasporti, logistica, industrie, energia, protezione dell’ambiente  saranno robotizzati. Molti robot collegati tra di loro potranno prelevare e scaricare “intelligenza” sulle reti, controllando così strutture complesse e condividendo esperienze, memoria e soluzioni. Questa gigantesca intelligenza distribuita su scala planetaria potrà far sorgere problemi sia pratici che sociali.

Effetti sulla società

Che cosa accadrà quando avremo, noi società sempre più anziane, intelligenti robot come assistenti, camerieri e badanti? Quando le nostre vite (anziani, malati, ecc.) dipenderanno da loro? La dipendenza tecnologica dai robot può diventare pericolosa; conosciamo già quella da tv, videogame o Internet. Pensiamo ad una robottina umanoide, graziosa e gentile, infaticabile e intelligente, dotata della capacità di “imparare” collegandosi alla rete ogni tipo di conoscenze, di giocare a scacchi e leggerci libri, commentare le notizie politiche e riassettarci la casa. Come non sviluppare, da umani, sentimenti di amore/odio verso questo simulacro di donna?
E, inoltre, quanto è etico sostituire esseri umani con macchine intelligenti nell’assistenza e cura di esseri umani che, proprio perché in condizioni difficili, avrebbero bisogno di un sostegno emotivo?
D’altra parte: non è maggiormente etico fornire a esseri umani in condizioni di disagio un’assistenza non emotivamente coinvolta?

Salute

La bionica si interfaccia con le neuroscienze e la robotica, e progetta nuove tecnologie per sostituire arti o funzioni mancanti, ma anche piattaforme fisiche per validare modelli biologici. La realizzazione e applicazione di protesi bioniche direttamente collegate al sistema nervoso centrale (interfacce cervello-macchina, ciber-arti, vedi l’esperimento Warwick, ) pone seri problemi etici. Generali: è eticamente corretto e socialmente accettabile estendere la durata della vita umana oltre i limiti “naturali”? potrebbe questo generare nei soggetti un pericoloso senso di onnipotenza? Tale tecnologia sarebbe disponibile solo per i Paesi ricchi? La questione della human augmentation è oggetto di dibattito anche in relazione al cyborg. Fino a che punto un essere umano, "modificato" mediante protesi bioniche e "augmented intelligence" è ancora un essere umano o un essere artificiale intelligente?
Le biotecnologie potrebbero essere impiegate per scopi militari; le ricerche sulle interfacce cervello-macchine potrebbero modificare l’ambito e le capacità del libero arbitrio.

Discriminazione

Uno scorretto processo di brevettazione e la creazione di trust di produttori di robot può escludere i Paesi meno sviluppati da questa tecnologia, isolandoli economicamente e socialmente.
Un processo analogo, a livello di singola società, può accadere tra giovani ed anziani, aumentando il divario tra le generazioni.

Malfunzionamenti/ Abuso deliberato/terrorismo

Avendo assunto un uso etico della tecnologia, ovvero che nessuno voglia progettare tecnologie per danneggiare esseri o l’ecosistema, siamo coscienti però dei possibili abusi.

Robotica militare

L’introduzione di macchine intelligenti avrà un effetto drammatico sulle guerre future. Se le nazioni sviluppate potranno mettere in campo robot e non esseri umani, saranno incentivate le guerre tecnologiche? La diffusione, sui vari teatri di guerra aperti oggi, di armi robotiche solleva già problemi etici. Vogliamo ricordare che, negli Stati Uniti, una quota molto alta della ricerche e dei prodotti robotici di laboratorio sono finanziate dal Darpa – al contrario del Giappone, dove le ricerche ed applicazioni militari sono vietate Tra le varie domande che ci poniamo: Chi deve essere ritenuto moralmente responsabile delle azioni di guerra di un robot? Potranno i robot impartire ordini?

Diritto

La giurisprudenza sarà sollecitata a studiare una legislazione che tenga conto della titolarità delle azioni commesse da un robot.
È complesso esaurire in poche pagine un tema così multiforme e in continua evoluzione come quello dei rapporti tra robotica e società. Ci riesce forse, nel modo sintetico tipico dell’arte, il film documentario Ciao Robot, prodotto da Scuola di Robotica e diretto da Manuel Stefanolo: tre anni di lavorazione, decine e decine di interviste, riprese e studi originali hanno prodotto la prima documentazione in presa diretta della nascente Roboetica (www.ciaorbot.org).

Affrontare oggi questi problemi, con la serenità relativa di chi non ne è ancora stato travolto, eviterà, forse, alla Robotica, la sorte di altre scienze che, come la fisica o la bio ingegneria, hanno dovuto far fronte ai problemi etici dell’applicazione delle loro scoperte dopo preoccupanti e drammatici fatti. Dalla società, i robot sono visti oggi con un misto di curiosità, stupore e allegria. Facciamoli diventare divertenti e instancabili compagni del nostro futuro.

Dottor Gianmarco Veruggio

Bibliografia

Generali

1. Asimov, I., (1950). I Robot, Doubleday
2. Asimov, I, (1942, 1991). Runaround. Astounding Science Fiction. Republished in Robot
3. Capek, K. (1921,2001) R.U.R. Rossum’s Universal Robots, Dover Publications.
4. Chalmers, A (1990). Science and its Fabrication. Open University Press
5. Churchland, P. (1989). A Neurocomputational Perspective. MIT Press.
6. Churchland, P. (1995). The Engine of Reason. The seat of the Soul: A philosophical journey into Brain. Mit Press
7. Conway, F., Siegelman, (2004). J. Dark Hero of the Information Age: In Search of Norbert Wiener, the Father of Cybernetics. Basic Books
8. Dyson, F. (1984). Weapons and Hope. Harper & Row
9. Joy, B. (2000).Why the Future doesn’t need us, Wired n°8
10. Evers, K. Codes of Conduct, Standards for Ethics in Research, European Commission, Directorate-General for Research, Directorate C – Science and Society, Unit C.3, Ethics and Science)
11. Kuhn, Th. (1962). The Structure of Scientific Revolutions. University of Chicago Press.
12. Landes, David S. (2003). The Unbound Prometheus: Technological Change and Industrial Development in Western Europe from 1750 to the Present. Cambridge University Press.
13. Huxley, (1932/1984). A Brave New World. Barron’s Educational Series.
14. Maturana, Humberto R. and Varela, Francisco J. (1st edition 1991). Autopoiesis and Cognition - The Realization of the Living. Springer.
15. Nagel, Th. (1974). What is it like to be a bat? Philosophical Review, 83: 435-50
16. Popper, K. R. (1971). The Open Society and its Enemies. Princeton University Press, 5th rev edition.
17. Popper, K. R. (1959, 2002). The Logic of Scientific Discovery. Routledge
18. Rossi, P. (2001). The Birth of Modern Science (Making of Europe). Blackwell Publishers
19. Rossi, P. (2000). Logic and the Art of Memory: The Quest for a Universal Language. The University Chicago Press, Athlone Press.
20. Snow C. P. (1963). The two cultures: and a second look. New American Library.
21. Wiener, N. (1948, 1965). Cybernetics, Second Edition: or the Control and Communication in the Animal and the Machine, MIT Press.
22. Wiener, N. (1964). God and Golem Inc. Chapman & Hall, London
23. Wilson, E.O. (1998). Consilience, The Unity of Knowledge, Knopf

Umani, macchine e robot

24. Bostrom, N., (2005). In Defence of Posthuman Dignity. Bioethics, Vol. 19, No. 3, pp. 202-214. Brooks, R. (2002). Flesh and Machines. How Robots will change us. Pantheon Books
25. Cordeschi, R. (2002). The Discovery of the Artificial: Behavior, Mind and Machines Before and Beyond Cybernetics, Kluwer Academic Publishers, Dordrecht.
26. Damasio, A., (1994). Descartes’Error: Emotion, Reason and the Human Brain. HarperCollins
27. Danielson, P. (1992). Artificial Morality: Virtuous Robots for Virtual Games. Routledge.
28. Goleman, D. (1995). Emotional Intelligence. Bantam Books.
29. Glasner, J (2003). How Robots Will Steal Your Job, Wired Magazine, n. 8/2003
30. http://www.wired.com/news/business/0,1367,59882,00.html
31. Levy, D.(2005). Robots Unlimited: Life in a Virtual Age, A.K.Peters Ltd.
32. Dennet, D. (1991). Consciousness Explained, Little, Brown&C
33. Drexler, K.E. (1990). Engines of Creation : The Coming Era of Nanotechnology. Anchor Books
34. Gardner, H. (1999). Intelligence Reframed, Basic Books
35. Gips. J. (1995). Towards the ethical robot. IN Ford, K., Glymour, C., & Hayes, P. (eds) Android epistemology. Mit Press, pp 243-252
36. Joy, B. (2000). Why The Future Doesn’t Need us. Wired n°8
37. Kurzweil, R. (1999). The Age of Spiritual Machines: When Computers Exceed Human Intelligence, Viking
38. Lemm, St.(1964). Summa technologiae. Frankfurt a.M.
39. Menzel, P., D’Aluisio, F. (2000) Robo sapiens: Evolution of a new species. MIT Press, Cambridge, Massachusetts
40. Minsky, M. (1986) The Society of Mind. Voyager
41. Mitchell Thomas M, (1997) Machine Learning, McGraw-Hill Higher Education
42. Moravec, H.(1998). When will computer hardware match the human brain? Jour. of Transhumanism, Vol.1
43. Negrotti, M. (1999) .The Theory of the Artificial. Exeter: Intellect Books
44. Negrotti, M. (2002).Naturoids. On the Nature of the Artificial. New Jersey
45. Negrotti, M. (2005). Yearbook of the Artificial. Nature, Culture & Technology. Bern: Lang Vol. 1: Cultural Issues, 2002; Vol. 2: 46. Models in Contemporary Science, 2004; Vol. 3: Cultural Dimensions of the User
47. Perkowitz, S.(2004). Digital People, Joseph Henry Press
48. Reeves B., Nass C. (1966). The Media Equation : How People Treat Computers, Television, and New Media Like Real People and Places. Cambridge University Press
49. Searle, J. (1980). Minds, brains and programs. Behavioral and Brain Sciences, 3:417-457.
50. Sterling, B. (2004). Robots and the Rest of Us. In: Wired, Issue 12.05
51. Turkle, Sh. (1995). Life on the Screen: Identity in the Age of the Internet. Touchstone
52. Varela, Francisco J.; Thompson, Evan and Rosch, Eleanor. (1991). The Embodied Mind Cognitive Science and Human Experience. MIT Press, Cambridge, MA.
53. Veruggio, G (2005) Marine Robotics and Society - A global interdisciplinary approach to scientific, technological and educational aspects, Proceedings of the IARP, IWUR2005, Pisa University Press
54. Ziemke, Tom and Sharkey, Noel E. (1998). Biorobotics. Special issue of Connec-tion Science, 10(3-4).Wallach, W. (2002). Robot Morals: Creating an Artificial Moral Agent (AMA). 2002
55. Wegner, D. (2002). The Illusion of Conscious Will, Mit Press

Scienza&Etica

56. Beauchamp, T. (2001). Childress, J. Principles of Biomedical Ethics. Oxford University Press, 5th edition,
Bostrom, N.(2003). Ethical Issues in Advanced Artificial Intelligence, Oxford University, (http://www.nickbostrom.com/ethics/ai.html)
57. Breazeal, Cynthia L.(2004). Designing Sociable Robots. MIT PRESS
58. Capurro, R. (2000), Ethical Challenges of the Information Society in the 21st Century, “International Information & Library Review” 32, 257-276
59. Clarke, A.C.. (1994/1997). Roger: Asimov’s Laws of Robotics. Implications for Information Technology , in  http://www.anu.edu.au/people/Roger.Clarke/SOS/Asimov.html
60. Cordeschi R., Tamburrini, G. (2005). Intelligent Machines and Warfare: Historical Debates and epistemologically Motivated Concerns, in Magnani, L., Dossena, R. (eds) Computing, Philosophy, and Cognition, College Publication, London
61. Lafollette, H.(1999). (The) Blackwell Guide to Ethical Theory. Blackwell
62. Danielson, P. (1992). Artificial Morality: Virtuous Robots for Virtual Games, Routledge, NY,
63. Dennet, D. (1997) When HAL Kills, Who’s to Blame? in Clarke, A. C. HAL’s Legacy: Legacy: 2001’s Computer as Dream and Reality, Cambridge MA: MIT Press
64. Epstein, R. G.(1997).The Case of the Killer Robot, John Wiley and Sons, Inc.
65. Floridi, L. (1999). Information ethics: On the philosophical foundation of computer ethics. Ethics and Information Technology, v.1 n.1, p.33-52,
66. Floridi, L., Sanders, J. W.(2001). On the Morality of Artificial Agents, Information Ethics Groups, University of Oxford, see: (http://web.comlab.ox.ac.uk/oucl/research/areas/ieg/publications/articles/omaa.pdf)
67. Floridi, L. (1999). Information Ethics: On the Philosophical Foundation of Computer Ethics. Ethics and Information Technology, Vol. 1, No. 1, 37–56.
68. Galvan, J.M.(2003/4). On Technoethics, in «IEEE-RAS Magazine» n°10 pgg 58-63.
69. Gips, J. (1995).Towards the Ethical Robot. In Ford, K. M., C. Glymour, et al., editors, Android Epistemology, pages 243-252
70. Hall, J.S.(2001). Ethics for Machines. http://www.kurzweilai.net/
71. H.T. Engelhardt, Jr., (1994). The foundations of Bioethics, New York, Oxford U.P.
72. Lang, C. (2002). Ethics for Artificial Intelligence. Wisconsin State-Wide Technology Symposium, "Promise or Peril? Reflecting on Computer Technology: Educational, Psychological, and Ethical Implications"
73. Parker, D.B., Swope, S. & Baker, B.N. (1990). Ethical Conflicts in Information and Computer Science, Technology, and Business, QED Information Sciences, Inc
74. Pollack, J.(2005). Ethics for the Robot Age. Wired 13.01
75. Shim, H.B., “Establishing a Korean Robot Ethics Charter”, IEEE-ICRA07 Workshop on Roboethics, Rome, 14 April 2007 http://www.roboethics.org/icra07/contributions/slides
76. Singer P.(1993).Companion to Ethics. Blackwell
77. Singer P.(1986). Applied Ethics, Oxford University Press
78. Veruggio, G. (2006). “The EURON Roboethics Roadmap”, Humanoids’06, December 6, 2006, Genoa, Italy
79. Veruggio, G., Operto, F.,  (2006) Roboethics: a Bottom-up Interdisciplinary Discourse in the Field of Applied Ethics in Robotics, in IRIE, International Review of Information Ethics, Vol. 6 (12/2006)
80. Veruggio, G. (2007). “Roboethics: an interdisciplinary approach to the social implications of Robotics” invited talk, E-CAP’07, June 21-23, 2007, University of Twente, Enschede, The Netherlands
81. Veruggio, G., Operto, F,  (2007) “The Roboethics Roadmap”, Plenary Session, CEPE 2007, Seventh International Computer Ethics Conference, July 2007, University of San Diego, USA
82. Wagner, J.J, D. M. Cannon, D.M., Van der Loos, M., Cross-Cultural Considerations in Establishing Roboethics for Neuro-Robot Applications Rehabilitation R&D Center, VA Palo Alto Health Care System, Center for Design Research, Stanford University.