De la Caja Negra, a la Extrañeza en la IA.

En el blog anterior, hablamos sobre el problema de la caja negra en la inteligencia artificial (IA), una barrera para la transparencia y la confianza en sistemas que toman decisiones importantes. Por está razón, esta realidad plantea desafíos en su comprensión y, por ende, en su regulación.

Agárrense por que este rollo es como la lasaña, papá, tiene capas. La capa más profunda no se limita a la falta de transparencia, sino que se trata de la extrañeza que la IA genera en nuestro monkey brain, lo cual complica aún más su integración ética y legal en la sociedad. Mi análisis pasado se enfocó completamente en la tecnología de la Inteligencia Artificial. Ahora, quisiera explorar nuestra perspectiva, como humanos.

La Extrañeza de la IA

Imagina que en un futuro cercano se crea un algoritmo avanzado especial para el Instituto Mexicano de la Propiedad Industrial (IMPI). Éste permite tramitar y concluir las solicitudes de registro de marca en 1 minuto (a diferencia del estándar de 6 meses, como ocurre en la actualidad). Este algoritmo se alimenta de toda la base de datos del Instituto; es decir, antecedentes registrales, criterios de resolución, procedimientos, conocimiento de casos, etc. Ningún ser humano puede aprender esa cantidad de información a lo largo de su vida. Sin embargo, el algoritmo lo hace en el mismo tiempo que tardas en ver un post en X. ¿Deberíamos confiar en una resolución tan apresurada? ¿Sabemos qué ocurre mientras está procesando la información?

Digamos que sí y no, sí porque ya existen algoritmos que detectan patrones en la información analizada y no porque no se sabe qué patrones elige el algoritmo para fundar y motivar sus resoluciones respecto de las solicitudes ni el procedimiento que utilizó para resolver. A simple vista, esto es un problema. No obstante, si nos ponemos a pensar, actualmente tenemos el mismo problema pero más lento. Esto es, no es posible estar 100% seguros del proceso de toma de decisiones de los dictaminadores de marcas del IMPI, ya que, conforme a múltiples estudios científicos, los humanos tomamos la gran mayoría de nuestras decisiones de forma inconsciente. Casi siempre que tomamos una decisión, la solución aparece mágicamente. No desarrollamos pasos definidos en nuestro proceso de toma de decisiones, de los cuales estemos 100% conscientes o podamos controlarlos en su totalidad.

A lo quiero llegar es que, haciendo una analogía, la Caja Negra de la IA es el sistema solar y nuestro cerebro, la galaxia (por ahora). Al menos sabemos cómo funciona un algoritmo pero respecto de cómo lo hace nuestro cerebro, solo tenemos un bosquejo. El problema de la Caja Negra de la IA nos preocupa debido a la utilidad y potencial (para bien y para mal) de las Inteligencias Artificiales y la adversidad natural que tenemos por el desconocimiento de esta tecnología. No obstante, actualmente no le ponemos la misma atención o preocupación al hecho de que los dictaminadores sean personas con cerebros infinitamente más complejos. Esto es porque estamos acostumbrados, es natural a nuestra especie, la IA no lo es, es extraña (por ahora).

El problema de la extrañeza en la IA no es solo una cuestión de entender cómo funciona un algoritmo, sino de la falta de intencionalidad que percibimos en sus decisiones. A diferencia de los seres humanos, la IA parece operar sin una motivación clara. Incluso cuando intentamos comprender sus procesos, la sensación de extrañeza persiste, ya que no hay un trasfondo humano en la toma de decisiones de la IA.

La psicología popular (folk psychology) nos permite aceptar la opacidad en las decisiones humanas, ya que podemos atribuirle una lógica intencional. Por ejemplo, cuando interactuamos con un médico o un juez, aunque no entendamos completamente su razonamiento, confiamos en que sus decisiones se basan en experiencias humanas y ética personal. Sin embargo, la IA carece de esta dimensión humana, lo que hace que sus decisiones, aunque sean correctas, nos resulten extrañas y, por lo tanto, difíciles de aceptar.

Impacto de la Extrañeza en la Regulación de la IA

Esta falta de intencionalidad y transparencia no solo crea un problema de confianza, sino también un gran desafío regulatorio. La regulación de la IA depende de la claridad y la capacidad de justificación de las decisiones. Las leyes están diseñadas alrededor de la naturaleza humana.

Sin embargo, la IA plantea un dilema diferente: ¿cómo regulamos decisiones que no tienen un origen humano ni una lógica moral que podamos comprender? Por ejemplo, en la justicia penal, permitir que una IA determine sentencias o decisiones de libertad condicional puede parecer justo en términos de imparcialidad y objetividad, pero la falta de una justificación comprensible genera rechazo. Este problema de extrañeza hace que los legisladores y reguladores tengan que considerar no solo la transparencia de la IA, sino también cómo “humanizarla” para que sus decisiones sean aceptables para la sociedad.

Propuestas para Reducir la Extrañeza de la IA

  • Inteligencia Artificial Explicable (XAI):

El enfoque de la IA explicable (XAI) se ha planteado como una solución para hacer más comprensibles los algoritmos opacos. La idea es desarrollar modelos de IA que no solo sean precisos, sino también capaces de explicar de manera clara cómo y por qué toman determinadas decisiones. Lo ideal sería que estos modelos mantengan un lenguaje simple y no técnico en sus explicaciones para mayor accesibilidad.

  • Interfaces más humanas:

La interacción con la IA debe diseñarse para ser más intuitiva y menos intimidante. Las interfaces de usuario pueden integrar elementos visuales y de lenguaje que simulen una “intención”, lo cual podría reducir la percepción de extrañeza. Por ejemplo, asistentes virtuales más empáticos y menos mecánicos pueden hacer que los usuarios se sientan más cómodos al interactuar con la IA, aumentando la aceptación y confianza.

  • Enfoques regulatorios basados en el riesgo:

Las leyes deben priorizar la regulación de la IA en función del nivel de riesgo que representan sus decisiones. Una IA utilizada en sistemas de transporte público, por ejemplo, debería estar sujeta a estándares más rigurosos de explicabilidad y justificación que una IA utilizada para recomendar productos en una tienda en línea. Al considerar la gravedad del impacto potencial de la IA, los legisladores pueden mitigar la extrañeza asociada a sus decisiones más críticas.

Hacia una IA comprensible y regulable

El camino hacia una IA comprensible y regulable no solo pasa por resolver el problema de la Caja Negra, sino también por reducir la extrañeza inherente a estas tecnologías. La verdadera integración de la IA en la sociedad requerirá un enfoque dual: mejorar la transparencia técnica de los sistemas y humanizar sus interfaces para que las personas puedan relacionarse mejor con sus decisiones.

La IA tiene el potencial de transformar positivamente nuestras vidas, pero para lograrlo, debemos hacerla menos ajena y más comprensible. La clave para su aceptación y regulación efectiva radica en equilibrar la precisión técnica con una dimensión humana más reconocible, haciendo que la IA sea una herramienta no solo poderosa, sino también confiable y ética.

Te recomiendo las siguientes fuentes de información si te interesa el tema:

https://psicologiaymente.com/social/psicologia-de-inteligencia-artificial-relacion-humano-maquina

https://digitalfuturesociety.com/es/interviews/la-convivencia-de-la-inteligencia-artificial-y-humana-entrevista-con-joanna-bryson/

Anterior
Anterior

Guía de supervivencia: Protección de Datos Personales en México.

Siguiente
Siguiente

El problema de la Caja Negra de la Inteligencia Artificial.