lunes, 27 de julio de 2015

¿SON REALMENTE INEXPUGNABLES LAS TRES LEYES DE LA ROBÓTICA?


leyes

Mucho del pensamiento científico y filosófico respecto a crear vida artificial se lo debemos a la literatura. Pero por la moral misma nos hemos visto encerrados de muchos miedos, en especial del complejo de Frankenstein. La novela de Mary Shelley puso un freno inmediato a cualquier intento de crear vida ya que según el pensamiento cristiano, esto sería jugar a ser Dios y por lo tanto no puede terminar bien.

Este tema ha sido expuesto tantas veces en obras de ficción donde ya sean clones o robots, cualquier forma de vida que el hombre cree y que no sea natural se rebelará contra él. Lo hemos visto en Matrix, en Terminator o en 2001: Una odisea espacial, por mencionar solo algunos ejemplos.

Pero el escritor Isaac Asimov, imaginó una posible forma de evadir el complejo de Frankenstein. En sus novelas introdujo las tres leyes de la robótica. Las cuales son plausibles y en apariencia no tienen fallas. Veamos que dicen...



Las tres leyes de la robótica de Asimov 


Las tres leyes de la robótica de Isaac Asimov son: 


  • Un robot no puede dañar a un ser humano o, por inacción, permitir que sea lastimado.
  • Un robot debe obedecer toda orden emitida por un ser humano excepto cuando estas órdenes entran en conflicto con la Primera Ley.
  • Un robot debe proteger su propia existencia a menos que entre en conflicto con la Primera y Segunda Ley.
 


Isaac



Parecieran que no podrían fallar, pero aun así pueden hacerlo. 


isaac asimov



Funcionamiento de las leyes 


Estas tres leyes, dentro de la obra de Asimov, son implantadas en el sistema operativo de todo robot, sí el robot llegara a infringir alguna quedaría inutilizado. Pero la intención de Asimov no era crear unas leyes que fueran perfectas sino que solo lo parecieran, pues como toda ley humana, éstas tienen sus puntos débiles y pueden violarse. 


Por ejemplo, el autor pone a sus robots en constante conflicto, donde deben tomar decisiones difíciles como matar a un humano para salvar a otros, o como se ve en la película de Yo, Robot, cuando el robot elige salvar del accidente solo al que tenía más posibilidades de sobrevivencia. 


tres



En muchas de las novelas y relatos de Asimov se muestran las diferentes formas en que las famosas leyes son deficientes. La incapacidad de distinguir situaciones y una definición más compleja de daño son los principales motivos por los cuales las leyes fallan, los seres humanos podemos definirlas, reconocer contextos y enemigos, nosotros razonamos mientras que los robots son solo lógica, ven una situación en la que deben actuar y lo hacen sin importar el contexto. 


Aplicarlas en la robótica real sería no solo estúpido, sino también muy complicado. Nuestra realidad es muy diferente a la ficción. En 2010, el Consejo de Investigación de Ingeniería y Ciencias Físicas junto con el Consejo de Investigación de Artes y Humanidades de Gran Bretaña crearon un conjunto de 5 principios éticos y morales para los diseñadores, constructores y usuarios de los robots, pero hablaremos de ellos en otra ocasión, por el momento basta decir que son muy diferentes a las tres leyes de la robótica de Asimov.




El contenido del post es de mi autoría, y/o, es un recopilación de distintas fuentes.

No hay comentarios:

Publicar un comentario