Facendo zapping sabato scorso approdo su una replica de "L'Uomo Bicentenario", un film di Chris Columbus del 1999, ispirato all'omonimo racconto lungo di Isaac Asimov.

Avendo apprezzato parecchio il racconto, mi sono soffermato a seguire le vicissitudini cinematografiche del robot NDR-114 (aNDRew per gli amici), notando come si discostassero non poco dall'originale.

Effettivamente il racconto era decisamente poco adeguato a una versione sul grande schermo: talvolta lento e abbstanza cervellotico. Gli sceneggiatori hanno dovuto per forza di cose rallegrarlo con qualche aggiunta e qualche taglio.

Negli ultimi minuti del film pero', avviene una cosa che oltre a non esser narrata nel racconto non sarebbe mai potuta accadere nel mondo creato da Asimov:

la 'compagna' umana del robot Andrew, dopo averlo assistito fino alla 'morte' e anche lei molto malata chiede a una robot infermiera (Galatea, una macchietta comica presente per una buona metà della pellicola) di 'staccarle la spina', e lasciarla morire.
La richiesta viene conclusa con un "è un ordine!", al che Galatea esegue quanto chiesto.

Il dubbio mi ha colto e sono andato a rileggere le 3 leggi della robotica, alla base di tutto il filone dei robot:


  1. Un robot non può recare danno a un essere umano, né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.

  2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contrastino con la Prima Legge.

  3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima e la Seconda Legge.



A occhio e croce la seconda legge, che obbliga il robot a obbedire agli esseri umani, cozza però con la prima, non permettendo alla macchina di recare danno a un essere umano anche se gli è stato ordinato di farlo: e questa condizione non decade nemmeno nel caso in cui gli esseri umani coinvolti nella prima e seconda legge siano la stessa persona.

Sbaglio? Oppure Galatea faceva riferimento alla famosa 'Legge Zero'
0. Un robot non può recare danno all'umanità, né può permettere che, a causa del proprio mancato intervento, l'umanità riceva danno.

che, non potendo essere infranta, la obbligava comunque a porre fine alla vita dello scarso personaggio di 'Portia' creato dagli sceneggiatori, per salvare l'umanità da sue successive apparizioni? :-)