Hace unos días hablamos sobre las tres leyes de la robótica de Isaac Asimov y comentamos si sería viable en la realidad. Ahora bien, el Consejo de Investigación de Ingeniería y Ciencias Físicas junto con el Consejo de Investigación de Artes y Humanidades de Gran Bretaña crearon un conjunto de 5 principios éticos y morales para los diseñadores, constructores y usuarios de los robots. Vamos a conocerlas.
Los 5 principios éticos y morales para la creación de robotsEstos son las verdaderas leyes que se recomienda aplicar en la creación de robots e inteligencias artificiales:
1-Los robots no deben ser diseñados exclusivamente o principalmente para matar o dañar humanos.
2-Los seres humanos son los responsables, no los robots. Ellos son herramientas diseñadas para cumplir con los objetivos de los humanos.
3-Los robots deben ser diseñados de tal forma que aseguren su protección y seguridad.
4-Los robots son objetos, no deben ser diseñados para evocar una respuesta emocional. Siempre debe ser posible diferenciar a un robot de un ser humano.
5-Debe ser siempre posible averiguar quién es el responsable y dueño legal del robot.
Como puedes ver son muy distintas a las tres leyes de la robótica de Asimov. ¿Por qué? Porque responden a situaciones muy diferentes, en la obra de ficción de Asimov el ser humano es hasta cierto punto más pacífico que el nuestro. En el mundo actual no se puede evitar usar a los robots como armas de guerra. A fin de cuentas es la guerra la que ha propiciado los grandes descubrimientos científicos y tecnológicos.
En estos 5 principios podemos ver que se deja de lado el aspecto romántico de los robots, no se les pretende dar identidad ni sentimientos ni mucho menos una categoría similar al humano. Son herramientas como lo es un martillo, una computadora o una motosierra. A su vez, los robots quedarían emparejados con cualquier otra arma, en la idea de que no es la pistola la que mata a las personas sino que las personas se matan entre sí. Así pues, si se usara un robot para matar sería responsabilidad de quién le dé la orden, o del dueño de dicho robot.
El único punto en el que concuerda con las leyes de Asimov es que el robot debe ser capaz de protegerse a sí mismo. Este principio se incluye debido a que un robot sería demasiado costoso y repararlo o reponerlo no sería una opción viable para el dueño. Aunque también conlleva su propio riesgo.
¿Qué podría poner en riesgo su existencia? Si no se programa de forma correcta podría sentir amenaza de cualquier cosa, especialmente del hombre.
Por otro lado, ¿qué tan seguro puede ser un robot? Puede que se le dé órdenes y el responsable sea el dueño, pero qué pasaría si se lograra hackear… se podrían utilizar a los robots en todo tipo de crímenes. Para ello sería necesario crear un sistema completamente blindado e impenetrable.
Algo que sería literalmente caótico es que tal vez no todos en el planeta cumplan con estos reglamentos y se desarrollen robots que puedan usarse para todo tipo de cosas, incluso desarrollarse de forma que no haya diferencia entre el hombre y la máquina. Se necesitaría un organismo internacional que regulara estrictamente el desarrollo de los robots… ¿pero funcionaría? Tendría que ser mejor que los que se encargan de combatir el narcotráfico.
El desarrollo de robots e inteligencia artificial todavía dista mucho de ser la que imaginamos en las películas, sin embargo, llegará el momento en que tendremos que demostrar si la raza humana está lista para crear robots y hacerse responsable de ellos.
Fuente
- Spoiler:
http://curiosidades.batanga.com/8717/los-5-nuevos-principios-de-la-robotica