Uno podría asumir que los robots deberían hacer siempre lo que les digamos sin importar las consecuencias de esas acciones, pero hay demasiados factores en juego en esa actividad de unas máquinas que poco a poco van teniendo más ambición tanto en sus habilidades físicas como en las que les dotan de capacidad de acción y autonomía.
#1 Las leyes de la robótica no deberían permitir que un robot se autodestruya por una orden humana. Ten encuentra que es más probable que un humano le de una orden errónea a un robot, de que este cometa un fallo.
#2 ¿Y si se entra en colisión con la 2º ley? Es decir, si el programador la da una orden mediante código interno y el usuario otra contradictoria con esa.
Comentarios
A la mierda con la segunda ley de la robótica.
#1 Las leyes de la robótica no deberían permitir que un robot se autodestruya por una orden humana. Ten encuentra que es más probable que un humano le de una orden errónea a un robot, de que este cometa un fallo.
#2 ¿Estás poniendo en duda a Asimov? ¡Hereje!
#3 Asimov no tubo que lidiar con el usuario medio de aparatos informáticos.
#4 ¿De qué diámetro es el tubo?
#2 ¿Y si se entra en colisión con la 2º ley? Es decir, si el programador la da una orden mediante código interno y el usuario otra contradictoria con esa.
#6 yo creo que a no ser que sean capaces de reprogramarse y alterar sus propios algoritmos, seguirían las instrucciones del código interno
Link original: http://spectrum.ieee.org/automaton/robotics/artificial-intelligence/researchers-teaching-robots-how-to-best-reject-orders-from-humans
Video original: