Ética 2.0: las nuevas leyes de la robótica

nuevas-leyes-robotica-portada

A la hora de imaginar el futuro es inevitable no pensar en una ciudad llena de viandantes acompañados de algún que otro robot. Máquinas de compañía que ayudan a un anciano a cruzar la calle o escoltan a los escolares al salir del colegio. Es posible pensar en una ciudad con robots de diferentes tamaños, formas y colores, pero seguramente todos ellos compartan una misma ética.

O al menos eso es lo que pensaba el escritor y padre de las tres leyes más famosas de la robótica, Isaac Asimov, y el Instituto Británico de Estándares (BSI, por sus siglas en inglés), que precisamente acaba de lanzar una guía con las normas del escritor algo más ampliadas.

Porque según nos cuenta Dan Palmer, director de desarrollo de mercado, fabricación y servicios de BSI, hasta ahora los diseñadores de robots no poseían un manual que recogiera los peligros éticos que pudiera tener un robot, a pesar de que ya en la primera mitad del siglo XX Asimov los planteara tan bien.

El uso de la robótica y la inteligencia artificial se está convirtiendo en algo común en la industria”, explica Palmer. Una guía que ha nacido tras reunir los conocimientos de varias organizaciones y personajes de la industria de la ingeniería, la fabricación y la robótica, además de un buen número de expertos en seguridad, científicos, académicos y filósofos.

Índice

La Ley Cero: la transparencia

En todas las obras protagonizadas por robots, Asimov establecía las tres leyes morales que toda máquina debía seguir.

1. Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.
3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.

La guía lanzada por la entidad, titulada BS8611 Robots y dispositivos robóticos, también recoge las ideas que emitía las normas del escritor. Así, comienza señalando que los robots no deben ser diseñados para matar o dañar a personas, y añade: “Los humanos, no los robots, son los agentes responsables; debería ser posible averiguar quién es el responsable de cualquier robot y su comportamiento”.

A diferencia del escritor, los editores de la guía se centran en los creadores y no tanto en las máquinas creadas, instándoles a que muestren transparencia a la hora de determinar las funciones de sus robots con el fin de evitar un ‘engaño robótico’. De acuerdo con Palmer este engaño puede ser intencionado o no, “pero se puede sortear asegurando que la apariencia del robot demuestra claramente su propósito y que el responsable del robot es transparente sobre su naturaleza o comportamiento”.

nuevas-leyes-robotica-ley-cero

Presentado como si fuera un manual sobre riesgos laborales, la guía también aborda preocupaciones sociales como “una sobredependencia de los robots” por parte de los usuarios o cuándo debería ser deseable una unión emocional entre un ser humano y un robot, aunque sobre estas cuestiones apenas ofrece orientaciones a los fabricantes.

Eso sí. Según expone en The Guardian Adam Winfield, profesor de robótica de la Universidad Este de Inglaterra, “este sería el primer estándar publicado para el diseño ético de los robots, algo más sofisticado que las leyes de Asimov”.

Las cinco leyes de la robótica

Aún así, el BSI no ha sido el único en inquietarse y actualizar las leyes de Asimov. En 2011, el Consejo de Investigación y Ciencias Físicas y el Consejo de Investigación de Artes y Humanidades de Gran Bretaña publicaron cinco principios éticos que deberían seguir tanto los fabricantes como los usuarios.

  1. Los robots no deben ser diseñados exclusivamente o principalmente para matar o dañar a los humanos.
  2. Los seres humanos, no los robots, son los agentes responsables. Los robots son herramientas diseñados para lograr los objetivos humanos.
  3. Los robots deben ser diseñados de forma que aseguren su protección y seguridad.
  4. Los robots son objetos, no deben ser diseñados para aprovecharse de los usuarios vulnerables al evocar una respuesta emocional o dependencia. Siempre debe ser posible distinguir a un robot de un ser humano.
  5. Siempre debe ser posible averiguar quién es el responsable legal de un robot.

El estándar lanzado por BSI ayudaría a afianzar tales principios entre los fabricantes. Pero el hecho de que la guía incida en lo importante que resulta diseñar robots de forma transparente con el fin de evitar un engaño robótico o incluso una discriminación es, sin embargo, complicado de llevar a la práctica. Y ello debido, principalmente, a los algoritmos de aprendizaje profundo (conocido también como ‘deep learning’).

nuevas-leyes-robotica-deep-learning

Según Winfield, actualmente este tipo de algoritmos emplea una gran cantidad de datos de internet que, sin embargo, contienen sesgos. Así, “estos sistemas tienden a favorecer a los hombres blancos de mediana edad, lo que es claramente un desastre. Se corre el riesgo de que todos los prejuicios humanos se absorban”.

Pone como ejemplo el riesgo de que futuros sistemas médicos no logren diagnosticar mujeres o minorías étnicas o el hecho de que ya existen programas de reconocimiento de voz que presentan más dificultades a la hora de reconocer al sexo femenino e, incluso, programas de reconocimiento facial que detectan más fácilmente rostros blancos que negros.

Aunque precisamente han sido los sesgos del ‘deep learning’ los que han promovido al BSI a lanzar esta guía. “Al implementar este estándar, las empresas pueden asegurarse de que están enfoncando la robótica de la forma más responsable y segura en caso de que una situación así ocurriera”, afirma.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *