La 4ta Regla de Isaac Asimov.

Si estás familiarizado con la obra de Isaac Asimov, Yo, Robot o con la película protagonizada por Will Smith, conoces las 3 leyes de la robótica. Si no, pues aquí van:

  1. Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño.

  2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto cuando dichas órdenes entren en conflicto con la Primera Ley.

  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.

Las tres leyes de la robótica de Isaac Asimov se dieron a conocer en 1942. Es decir, tenían sentido en un mundo, que en ese entonces, todos creían que era de ciencia ficción. No obstante, ¡3 Doritos después, ya estamos en la revolución robótica! Las leyes han funcionado como una base teórica, sin embargo, al considerar las tecnologías actuales y las proyecciones para el futuro cercano, es necesario analizar si su alcance es el adecuado y cómo se han actualizado a la fecha.

  • Primera Ley: Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño.

    La intención de esta ley es clara, le da prioridad a resguardar la integridad física de una persona. No obstante, la palabra “dañar” tiene varias acepciones. A primera vista, podemos deducir que, por dañar, se refiere a lastimar físicamente a un ser humano. La ley no establece qué se debe entender por “dañar”. Es decir, no toma en cuenta detrimentos patrimoniales y daños emocionales y psicológicos, por ejemplo.

    Situación actual:

    Los modelos actuales de Inteligencia Artificial pueden programarse para evitar que las acciones de los robots lastimen físicamente a cualquier persona y menoscaben su patrimonio. Además, detectan emociones de acuerdo con el lenguaje usado por las personas y adaptan sus respuestas para no desencadenar ansiedad o depresión. No obstante, la prevención de daños emocionales y psicológicos seguirá siendo un reto para los programadores y legisladores.

  • Segunda Ley: Un robot debe obedecer las órdenes dadas por los seres humanos, excepto cuando dichas órdenes entren en conflicto con la Primera Ley.

    Hay situaciones en las cuales, ésta puede entrar en conflicto con la Primera Ley. Además, las órdenes humanas pueden ser ambiguas, lo que complica la implementación.

    ¿Por qué pueden ser ambiguas?

    Las instrucciones no aclaran qué acciones deben tomarse ni qué límites deben observarse para proteger a la persona que las da. El robot no sabe si debe intervenir físicamente, tomar medidas de seguridad en el entorno o incluso, restringir a una persona para protegerla de sí misma.

    Veamos un ejemplo de potencial conflicto con la Primera Ley:

  Escenario: Un robot asistente doméstico en la cocina de una casa.

- Primera Ley: El robot no debe permitir que un ser humano sufra daño.

-Segunda Ley: El robot debe obedecer las órdenes dadas por los seres          humanos.

Situación y aplicación de las leyes: Un niño le ordena al robot que le dé un cuchillo.

- Primera Ley: El robot sabe que darle un cuchillo al niño podría resultar en daño físico para el niño.

- Segunda Ley: El robot debe obedecer la orden del niño de darle el cuchillo.

En este caso, el robot enfrenta una contradicción. Si obedece la orden del niño (Segunda Ley), podría permitir que el niño se haga daño (violando la Primera Ley). Si no obedece la orden del niño para protegerlo (Primera Ley), estaría desobedeciendo una orden directa (violando la Segunda Ley).

            Situación actual:

  • Los sistemas de IA actuales pueden seguir órdenes específicas y claras, pero interpretar órdenes complejas o ambiguas sigue siendo un desafío significativo. Actualmente, existen normativas y principios éticos diseñados para guiar el desarrollo y uso de la robótica y la inteligencia artificial (IA). Estos parámetros buscan asegurar que estas tecnologías se utilicen de manera responsable y beneficiosa para la sociedad. Aquí algunos ejemplos destacados:

    a) Principios de la OCDE: La Organización para la Cooperación y el Desarrollo Económicos (OCDE) ha establecido principios para la IA que incluyen la transparencia, la equidad, la seguridad y la responsabilidad.

    b) Directrices de la Unión Europea: Un marco ético que enfatiza la dignidad humana, la privacidad, la protección de datos y la no discriminación. Estos principios buscan garantizar que los sistemas de IA respeten los derechos fundamentales y sean transparentes en su funcionamiento.

    c) Recomendaciones de la UNESCO: La UNESCO ha propuesto principios éticos que se centran en la educación, la cultura y el medio ambiente, promoviendo el uso de la IA para el bienestar social y el desarrollo sostenible.

    d) Principios de Asilomar: Estos principios, desarrollados por el Future of Life Institute, incluyen la importancia de la seguridad, la transparencia y la alineación de los sistemas de IA con los valores humanos.

    Estas normativas y principios abordan cuestiones como la transparencia en la toma de decisiones automatizadas, la mitigación de sesgos algorítmicos, la protección de la privacidad y la seguridad y la responsabilidad de los desarrolladores y usuarios de IA.

  • Tercera Ley: Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.

    La autopreservación de los robots es crucial para su funcionamiento continuo y eficiente. Sin embargo, con el avance de la inteligencia artificial (IA) y la robótica, la complejidad de las situaciones en las que los robots operan ha aumentado significativamente. Los robots actuales y futuros deben tomar decisiones en entornos dinámicos y, a veces, impredecibles, lo que puede complicar la aplicación de esta ley.

    Podría ser útil actualizar la tercera ley para reflejar mejor las capacidades avanzadas de los robots modernos y las expectativas sociales. Tal vez, se tendría que especificar que los robots deben priorizar la protección de su existencia de manera que maximice su utilidad, durabilidad, adaptabilidad y eficiencia, siempre que no entre en conflicto con las leyes anteriores.

    Situación actual:

    En la actualidad, las leyes de Asimov no se implementan literalmente en los robots, pero los principios subyacentes influyen en el diseño ético de la IA y la robótica. Los robots modernos no tienen un instinto de autoconservación como tal, están diseñados para evitar daños que puedan comprometer su funcionamiento, siempre subordinado a la seguridad de las personas.

  • Cuarta Ley: La explicabilidad de las acciones de la IA.

    Una nueva ley que nos permita entender y explicar las decisiones de la IA es crucial para la confianza y la aceptación pública. Actualmente, la Caja Negra de la IA y la extrañeza de la tecnología genera desconfianza. Sin embargo, la investigación en IA explicable (XAI) está avanzando y se espera que en el futuro cercano, los sistemas de IA sean capaces de proporcionar explicaciones claras y comprensibles de sus decisiones.

    ¿Qué es y cómo funciona la XAI?

    La IA explicable o XAI por sus siglas en inglés (Explainable Artificial Intelligence), es un campo de la inteligencia artificial que se enfoca en hacer que los sistemas de IA sean más comprensibles y transparentes para las personas. El objetivo es que las decisiones y acciones de la IA puedan ser explicadas de manera clara y entendible.

    Para lograr ésto, se utilizan varias técnicas, como:

    a) Modelos Simples: Por ejemplo, árboles de decisión, que son más fáciles de interpretar.

    b) Métodos de Interpretación: Aplicar técnicas que expliquen las decisiones de modelos complejos, como redes neuronales, mediante la visualización de cómo se procesan los datos.

    c) Explicaciones Locales: Específicas para cada decisión individual, en lugar de una explicación general del modelo completo.

Conclusión

Las Tres Leyes de la Robótica de Asimov son un punto de partida valioso para la discusión sobre la ética y la seguridad en la IA y la robótica. Sin ellas, estas disciplinas no tendrían las bases correctas para actuar. Sin embargo, como todas las leyes, estas deben adaptarse a la realidad que regulan, siempre manteniendo sus principios éticos y lógicos.

Te comparto este artículo si quieres saber más al respecto: https://www.legalbeard.com/s/The-black-box-problem-revisited.pdf

Anterior
Anterior

Lo más emocionante del potencial de la inteligencia artificial general (AGI) y la superinteligencia artificial (ASI).

Siguiente
Siguiente

Guía de supervivencia: Protección de Datos Personales en México.