Primera Ley de la robótica:
Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño.
Segunda Ley de la robótica:
Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.
Tercera Ley de la robótica:
Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.
Estas tres leyes fueron escritas por Isaac Asimov en 1942.
Asimov no es ningún científico, es un escritor. Uno de los padres de la ciencia-ficción moderna. Y estas tres leyes son pura ficción, como parte de su saga Fundación.
Mucha gente piensa que estas leyes son reales; que de algún modo en el campo de la robótica éstas se tienen en cuenta a la hora de programar o algo del estilo.
Nada de eso.
No existen leyes escritas que estipulen con detalle los límites y comportamiento que debería tener una inteligencia artificial.
Es algo que se establecerá estos años, a raíz de todo el revuelo que se ha armando con el tema de las IAs generativas.
Dicho de otro modo, a día de hoy no existe nada concreto que prohíba o evite que un robot se convierta en asesino. Nada concreto, quiero decir.
Pero tranquilo, que digo esto porque se acerca Halloween, y esa época del año donde está de moda asustar a la gente.
En realidad, tener miedo de que un robot asesino entre en tu casa está al mismo nivel de realismo que tener miedo de que un vampiro o un hombre lobo entre en tu casa para morderte.
Por mucho que venda el sensacionalismo de las IAs como destructoras de mundos, al final la responsabilidad no es de la herramienta, si no de aquel que la empuña.