Isaac Asimov aveva ragione: si dovrà programmare un’etica per i robot?

Una conferenza di esperti di robotica tratteggia il rischio di una ‘deriva’. Dato il sempre minore controllo umano delle macchine, la ‘libertà’ di cui queste sono dotate e l’evoluzione ormai prossima di una società robotizzata, è un azzardo pensare di progettare un’etica per i robot?

Gli accaniti lettori di fantascienza conoscono già la filosofia di chi questo genere lo ha inventato: Isaac Asimov. Il noto romanziere russo, autore di una vastità impressionante di romanzi, è tenuto molto in considerazione negli ambienti accademici e scientifici contemporanei per la profonda perspicacia che emerge dalla sua letteratura, un pensiero che intreccia inestricabilmente l’evoluzione sociale con l’evoluzione tecnologica fino a divenire un Uno nel quale è difficile separare l’elemento umano da quello meccanico e robotico. Il destino tracciato dai romanzi di Asimov, un mondo futuristico ormai completamente meccanizzato e robotizzato, si sta infatti avverando, e bisogna quindi chiedersi se anche le tante ‘paure’ che lo scrittore russo delinea tra i suoi scritti possano prendere oggi una forma. Se infatti uomo e macchina si compenetrano sempre più profondamente, se è sempre più difficile distinguere l’elemento antropologico da quello robotico, se le macchine sono sempre più libere dal controllo dell’uomo, è giusto chiedersi se la prossima generazione tecnologica dovrà persino essere dotata di un ‘programma etico’. Sembrerà, infatti, un film, o addirittura uno scherzo, ma trovarsi un domani difronte ad un robot ‘pensante’ e dotato di una volontà sua propria, non è propriamente un’utopia; anzi, è più probabile che alla macchine competa molto di più di quanto all’uomo non è dato fare. Questo lo scenario di cui si è discusso al the Humanoids 2013 conference, un meeting che ha riunito i più importanti ingegneri di robotica, esperti di tecnologie avanzate e filosofi della tecnologia, tenutosi il mese scorso ad Atlanta, USA. Si è discusso, infatti, di arrivare a progettare per le prossime generazioni tecnologiche programmi informatici che conferiscano alle macchine un comportamento etico tout court; d’altronde non è un’utopia vedere volare aeroplani senza piloti, i cd. droni, né fa imbarazzo sentir parlare di missili ‘intelligenti, né stupisce più di tanto che oggi la robotica possa sostituire, e meglio, la manodopera umana praticamente in ogni settore, anche le più improbabili, come ad esempio scrivere un articolo di giornale. Dunque è mai possibile che i robot possano arrivare a trasgredire quelle leggi che già Asimov dettò nei suoi romanzi, sopratutto quella che afferma come“un robot non può recare danno a un essere umano, e deve obbedire agli ordini impartiti dagli esseri umani? Sarà rispettato questo vincolo? E’ la domanda che si è posta durante il meeting, e bisogna ammettere che durante l’udienza sono stati tratteggiati scenari a volte davvero inquietanti, come la concreta possibilità di arrivare a costruire personaggi visti solo al cinema, come un ‘Terminator’. “Tutti i robot”, spiega Dr. Arkin , un veterano di robotica presso il Georgia Institute of Technology, “hanno tutti implicazioni ‘dual use’, il che significa che possono essere usati in modo costruttivo o distruttivo , a seconda della volontà del progettista. Sto solo cercando di dirvi che questo tipo di tecnologie che si stanno sviluppando, possono avere impieghi in luoghi e in attività di cui non è possibile avere pienamente un’idea.” D’altronde già oggi i robot sono impiegati anche nel fare la guerra, e c’è chi sostiene che i prossimi eserciti saranno infatti truppe robotiche, un’eventualità che se dovesse realizzarsi, nella migliore delle ipotesi, risparmierebbe vite umane e molte spese belliche da parte delle nazioni, nella peggiore, non è possibile tracciare un confine.

Rimane il fatto che alla base di ogni applicazione delle tecnologie c’è sempre la mano dell’uomo e ad esso ricadrà, al di là di ogni nietzcsheana idea del bene e del male, la responsabilità di ciò che sarà il mondo.

http://www.nytimes.com

Isaac Asimov aveva ragione: si dovrà progettare un’etica per i robot?