LLega el Empoderamiento a Robots
Derecho Civil para la Robótica
Las 3 Leyes de la Robótica de Isaac Asimov son:
- un robot nunca debe dañar a un humano o permitir que el humano sea dañado,
- debe obedecer las órdenes humanas
- debe proteger su propia existencia, siempre y cuando esto no conlleve dañar a un humano.
Las 3 leyes parecen coherentes, sin embargo en ellas se presenta un gran dilema. Y este dilema tienen que ver con la palabra que las 3 leyes incluyen: HUMANO.
¿Quién definirá que es «ser humano» en la programación de los Robots?
¿Qué es ser humano?.
Parece algo sencillo, sin embargo …
Por artículos anteriores hemos leído acerca de quienes son actualmente, los diseñadores y promotores de la nueva terminología o neolengua, los creadores de los nuevos conceptos o transformadores de las definiciones. Y realizan esta labor en todas las disciplinas académicas del conocimiento. Ellos son los «expertos» contratados por los tan de moda Think Tanks (tanques de pensamiento): esas organizaciones de expertos bien pagados con capital de las fundaciones de las grandes familias de filántropos.
Organizaciones que parecen ser lo que no son. Dicen ser la unión de grandes pensadores para que surgan nuevas ideas, cuyo fin último es mejorar el progreso y la calidad de vida de todos los habitantes del planeta.
Claro que también conocemos quienes son las familias de los filántropos que financian todo lo anterior con enormes fortunas …. Todas esas fundaciones que aparentan «puro altruismo» y que en realidad pertenecen a una élite de menos del 1% de la población, quienes poseen más riqueza que el 99% restante.
Por lo tanto, serán los humanos más ricos y poderosos del planeta, quienes paguen a sus expertos para que redacten la nueva definición de humano. Una vez aprobada, ese concepto readaptado será la ética para el empoderamiento en la programación de los robots del mañana. Es difícil no pensar que la nueva definición no será la que más se ajuste a los intereses y agendas de esos pocos humanos tan poderosos.
Artículo de Ministerio de Defensa del Gobierno Español
Fecha 3 de Agosto de 2017
La componente ética en los sistemas robóticos
Gracias a la rápida evolución tecnológica en el campo de la inteligencia artificial, la introducción de los robots en los distintos ámbitos de la vida cotidiana va a tener lugar progresivamente durante los próximos años. Su aplicación en campos como los vehículos autónomos, asistentes del trabajo y del hogar o cuidado de personas será de especial relevancia.
Este uso creciente de los robots en la vida diaria implicará una interacción constante entre humanos y robots, los cuales se verán expuestos a una amplísima variedad de situaciones, algunas de ellas complejas. La capacidad de respuesta de los robots ante estas situaciones especiales es uno de los mayores retos para su aplicación extensiva de una forma segura para el ser humano.
En 1942, el escritor de ciencia ficción Isaac Asimov propuso tres principios que deben regir la interacción entre robot y humano:
- un robot nunca debe dañar a un humano o permitir que el humano sea dañado,
- debe obedecer las órdenes humanas
- debe proteger su propia existencia, siempre y cuando esto no conlleve dañar a un humano.
Sin embargo, dado el entendimiento limitado de los robots de situaciones ambiguas o con matices, así como del concepto de “daño” en sí mismo, estas leyes son susceptibles de malinterpretación por parte del robot, lo que podría conducir a consecuencias desastrosas.
El Empoderamiento también llega a los Robots
Con objeto de abordar esta problemática, un equipo de trabajo de la Universidad de Hertfordshire, en Reino Unido, ha creado un nuevo concepto llamado “empowerment” (empoderamiento), a fin de ayudar al robot a proteger y mantener seguro al humano.
Este concepto o pauta de comportamiento que se quiere conferir al robot consiste en dotarle de una mayor flexibilidad para la toma de decisión, manteniendo abiertas todas las opciones posibles, como haría un humano.
Se pretende que el robot vea el mundo con los mismos ojos del humano con quién interactúa.
Recientemente este concepto ha sido expandido para que el robot siempre busque mantener el “empowerment” del humano, evitando actuar de forma opresiva para protegerle.
Esto permitiría implementar en los robots las tres leyes de Asimov mediante una mayor flexibilidad antes que con reglas éticas complejas.
Para más información se puede consultar el siguiente enlace.
Fuente del Artículo:
Ministerio de Defensa de España