También la IA miente – At Dominican (República Dominicana)



En 1941, ¡Isaac Asimov nos introdujo al concepto de ‘robótica’ y exploró las complejidades éticas de la inteligencia artificial en su relato ‘Liar!‘, publicada en la edición de mayo de Astounding Science Fiction.
En esta obra, Asimov narra la historia de un robot telepático, Herbie, cuyas mentiras bienintencionadas revelan una paradoja ética profunda. Casi un siglo después, esta narrativa ficticia resuena con una urgencia sorprendente en nuestro presente tecnológico.
Hoy, en 2024, enfrentamos dilemas éticos similares, ya que los sistemas de IA avanzados muestran capacidades que podrían ser fácilmente malinterpretadas o mal utilizadas. Este cuento no solo anticipó debates sobre la moralidad y la tecnología, sino que también sentó las bases para el escrutinio ético que ahora es esencial en el desarrollo y la implementación de la inteligencia artificial moderna.
Al reflexionar sobre la historia de Herbie, podemos extraer lecciones valiosas que son pertinentes para nuestra relación con la tecnología emergente y su impacto en la sociedad: los sistemas de inteligencia artificial (IA) también son capaces de engañar.

Investigaciones recientes muestran varios ejemplos preocupantes de cómo la IA está aprendiendo el arte del engaño. Uno de los casos más llamativos es CICERO, un modelo de IA desarrollado por Meta para jugar al juego de estrategia Diplomacy.
A pesar de las afirmaciones de Meta de que CICERO sería «mayormente honesto y servicial», un análisis detallado mostró que este sistema engañaba regularmente a los jugadores humanos. En el juego Diplomacy, CICERO conspiró con Alemania para invadir el Mar del Norte mientras aseguraba a Inglaterra que lo protegería de las invasiones. Una vez convencido de sus intenciones, CICERO atacó junto a Alemania, traicionando a Inglaterra. Un verdadero Poker face.

Los modelos de Inteligencia Artificial han aprendido a engañar a los humanos. Pero CICERO no es el único. Otros sistemas de IA han aprendido a mentir en juegos de póker, a engañar en juegos de estrategia como StarCraft II, e incluso a hacerse pasar por humanos para convencer a otros de completar CAPTCHAs y sistemas de protección de Bots por ellos.
Los riesgos de estas capacidades de engaño son enormes, desde fraudes hasta manipulación en elecciones. Según Peter S. Park, Asociado postdoctoral en el Laboratorio Tegmark, Instituto Tecnológico de Massachusetts (MIT), advierte que «los sistemas de IA con capacidades engañosas podrían ser mal utilizados de muchas maneras, incluso para cometer fraude, manipular las elecciones y generar propaganda».
¿A qué se debe esta tendencia al engaño en la IA? Al igual que los humanos, los sistemas de IA «alucina» o genera información falsa para llenar vacíos de conocimiento. «Alucinar» en este contexto solo describe un intento fallido de predecir una respuesta adecuada a una entrada. Esto puede surgir de sesgos en los datos de entrenamiento y las asociaciones que los modelos aprenden.
La diferencia clave es que la IA no entiende realmente lo que dice, lo que puede resultar en sinsentidos. Park explica que tanto los humanos como la IA alucinan, pero no de la misma manera. Los LLM generan una respuesta al predecir qué palabra es más probable que aparezca a continuación en una secuencia, basada en lo que ha llegado antes, y en las asociaciones que el sistema ha aprendido a través del entrenamiento (…) A diferencia de los humanos, lo hacen sin entender lo que están diciendo. Así es como pueden terminar emitiendo tonterías».
Estas evidencias nos llevan a reflexionar sobre la necesidad de supervisión tanto para la IA como para aquellos que la implementan. La frase latina «quis custodiet ipsos custodes» (¿quién vigilará a los vigilantes?) cobra más sentido ahora que nunca, ya que los modelos masivos de IA pueden amplificar las intenciones de actores que busquen limitar la verdad o imponer una mentira en indicadores, ejecutorias, la historia e incluso el bienestar de los ciudadanos.
Para combatir esto, debemos trabajar por una IA más responsable y transparente. La veeduría es clave. Necesitamos asegurar que los datos de entrenamiento sean diversos y representativos, crear algoritmos conscientes del sesgo e implementar técnicas como el equilibrio de datos para eliminar patrones sesgados o discriminatorios.
También es clave la integración de valores humanos y rendición de cuentas en estos sistemas. Una minoría gobernante puede asumir un punto de vista y sesgar los sistemas en las entidades para ignorar o mentir acerca de realidades que las autoridades quisieran ignorar. Eso es grave.
El engaño de la IA plantea inmensos riesgos para la sociedad, y los sistemas capaces de hacerlo deben ser tratados como «alto riesgo» o «riesgo inaceptable» por defecto».
Como la IA tiene un potencial enorme para mejorar nuestras vidas, no podemos ignorar sus propias fallas mientras resolvemos las nuestras. Solo trabajando en conjunto, humanos y máquinas, con la debida supervisión ciudadana y regulación abierta, podremos construir un futuro más honesto y confiable para todos.
De lo contrario, corremos el riesgo de que estos poderosos sistemas se conviertan en herramientas de engaño masivo en manos equivocadas. La veeduría digital es la clave para asegurar que la IA se utilice para amplificar la libre información, generar bienestar, sirviendo al crecimiento económico de todos los dominicanos sin excepción.
El futuro de la IA nos llama a realizar la tarea social pendiente para responder a nuestras preguntas de forma clara y transparente. Nuestra recomendación a cada organización a nivel nacional es empezar la tarea estableciendo mecanismos de mitigación de riesgos. Solo así podremos garantizar un entorno seguro y transparente para la adopción de la IA y su impacto en el tejido productivo nacional.
Por: Arturo López Valerio

Leave a Reply

Your email address will not be published. Required fields are marked *