Skip to main content
No crea todo lo que dice Messi, aunque escuche su voz: cómo regular la IA respetando la libertad de expresión

No crea todo lo que dice Messi, aunque escuche su voz: cómo regular la IA respetando la libertad de expresión

 

IFESINACHI PICTURES/Shutterstock
Julio Alejandro Ríos Gutiérrez, Universidad de Guadalajara

La imagen es insólita. La candidata presidencial de México, Claudia Sheinbaum, invitando a las personas a invertir en un esquema financiero fraudulento. La promesa: ganar 120 mil pesos con una mínima inversión de 4 mil pesos. Totalmente falso. Los defraudadores clonaron la voz de la candidata a la presidencia y la montaron en un video tomado de sus redes sociales. Una vez que esto se viralizó, la aspirante presentó una denuncia penal.

Y ese es solo un caso. En Argentina, circuló un video generado con inteligencia artificial (IA) en el que el futbolista Lionel Messi anunciaba su intención de votar por Javier Milei, el entonces candidato de la coalición “La Libertad Avanza” y hoy presidente de Argentina.

En 2023, se difundieron audios falsos de los candidatos a las alcaldías colombianas de Bogotá (Carlos Fernando Galán) y de Sincelejo (Yahir Acuña).

Las herramientas de la inteligencia artificial generativa han sido útiles para mejorar los procesos de elaboración de productos noticiosos. Sin embargo, también tienen el potencial para la producción de altos volúmenes de contenidos de desinformación.

Para autores como Negrete-Huelga, junto con los discursos de odio o el fraude electrónico, la “desinformación es uno de los grandes riesgos de las libertades informativas en la sociedad abierta”. Y de acuerdo con la periodista Elodie Martínez, encargada del departamento de verificación de hechos de Agence France Presse, la desinformación puede desalentar la participación en las urnas, socavar la confianza en el sistema electoral, gestar conflictos poselectorales y desestabilizar a las democracias, además de generar riesgos contra el patrimonio de las personas o, peor aún, provocar la pérdida de vidas humanas.

Ante tal situación, varios países han iniciado procesos de regulación de estas tecnologías, con atención a la desinformación generada a través de la IA.

¿Es posible regular este fenómeno que crece a velocidad inusitada, sin que esto se convierta en un pretexto para implementar leyes que atenten y limiten la libertad de expresión?

¿Qué y quiénes están regulando?

Entre 2016 y 2023 se han modificado o aprobado 91 leyes en todo el mundo con el objeto de combatir la desinformación. En América, se ha legislado al respecto en siete países: Canadá, Estados Unidos, Bolivia, Brasil, Costa Rica, Cuba y Nicaragua. En África la regulación ha llegado a 38 países, a otros 19 en Asia, a nueve en Europa, a tres en Oceanía y a dos en Eurasia.

Entre los países latinoamericanos que han presentado iniciativas para sumarse a estas naciones que ya regulan la IA están Chile, Brasil y México.

Además, tanto la Unión Europea como la OCDE cuentan con principios básicos para incluirlos en las leyes de los países miembros.

No obstante, las regulaciones no siempre son fáciles. Frente al tortuguismo legislativo que implica la búsqueda de consensos entre fuerzas políticas, las tecnologías evolucionan mucho más rápido y, cuando por fin se da una reforma, la ley queda obsoleta muy pronto. En este sentido, hay autores que proponen que las reglas sean básicas, al estilo del famoso decálogo de Moisés, lo que permitiría adaptarlas a la realidad cambiante.

Weidenslaufer y Roberts identifican tres desafíos que deben tomarse en cuenta para legislar con el objetivo de prevenir y limitar la desinformación (sin importar que sea generada a través de IA o con métodos tradicionales):

  • Que lo regulado esté correctamente definido.

  • Que no se limite la libertad de expresión.

  • Que existan recursos para monitorear y estudiar de forma eficiente el fenómeno y sus evoluciones.

Entre la alfabetización mediática y las multas millonarias

En la regulación de la IA, los estudiosos detectan dos enfoques: el punitivo y el preventivo.

En el primer rubro, Roudik distingue a Malasia o Nicaragua, que contemplan penas de prisión, mientras que China, Egipto, Francia, Alemania, Israel y Rusia apuestan por la aplicación de multas.

En el preventivo están Suecia y Kenia, que han preferido impulsar programas de alfabetización mediática, y Reino Unido, que ha adoptado programas automatizados para desmentir noticias falsas.

En Alemania, la NetzDG (Ley de Aplicación de Redes, en vigor desde enero de 2018) permite a los usuarios presentar quejas cuando detectan discursos de odio, con lo que las empresas están obligadas a eliminar los contenidos en menos de 24 horas, so pena de multas que van de 500 mil a 50 millones de euros. Esta norma ha sido criticada porque el temor a las sanciones provoca que se eliminen publicaciones que no lo ameritaban.

En Francia, la norma que combate las noticias falsas establece plazos de 48 horas para frenar “información falsa o engañosa que pueda adulterar el sentido del voto”.

El consenso: una vía posible

Un enfoque intermedio, entre la mano dura y la laxitud, es el que puede surgir del consenso entre autoridades y empresas. Un ejemplo es el Código de buenas prácticas sobre desinformación de la Unión Europea (UE), a través del cual se ha gestionado la firma de compromisos y estrategias de autorregulación.

Este enfoque, es descrito por Weidenslaufer y Roberts como un “diálogo constructivo entre las empresas tecnológicas líderes y las autoridades gubernamentales para formular y adoptar medidas regulatorias”. Hasta ahora se han logrado 44 compromisos y 128 medidas específicas.

Compromisos firmados contra la desinformación en Europa

  • Interrumpir los ingresos publicitarios de cuentas y sitios que difunden desinformación

  • Transparentar publicidad política a favor de candidatos o referendos

  • Combatir a los bots

  • Empoderar a consumidores para reportar desinformación

  • Empoderar a la comunidad de verificación de hechos

  • Permitir a los investigadores monitorear la desinformación

  • Fortalecimiento del marco de supervisión

Fuente: Código de buenas prácticas sobre la desinformación de la Unión Europea.

No podemos ser ingenuos al pensar que las empresas tecnológicas van a cumplir todos los compromisos. Como alguna vez me dijo un buen amigo: “No hay león que de la noche a la mañana se convierta en vegetariano”. Por ello, el modelo se complementa con un sistema de monitoreo y evaluación, para darle seguimiento a los indicadores y metas.

La misma tecnología puede ser un antídoto

La Relatoría Especial para la Libertad de Expresión de la Comisión Interamericana de Derechos Humanos ha reconocido que la desinformación es un fenómeno que preocupa, pero también recomienda cautela en las respuestas del Estado y desaconseja las medidas inhibitorias, como multas económicas o cárcel.

Lo paradójico es que ante un fenómeno que avanza vertiginosamente, el Estado no debe precipitarse ni caer en tentaciones censoras. Pero también es una realidad que no todos los gigantes tecnológicos parecen tener la intención de verificar cada contenido. Un ejemplo es la red social X, donde no hay filtro que valga y pululan los discursos de odio.

En términos de prevención y combate a la desinformación se requiere un enfoque activo y hay que utilizar las mismas soluciones tecnológicas como antídoto. Una estrategia clave consiste en aprovechar las habilidades y capacidades de todos los actores, sectores y niveles.

Y que los consensos no queden solo en promesas que se lleva el viento. O mejor dicho: que no sean tan efímeras como un tuit.The Conversation

Julio Alejandro Ríos Gutiérrez, Periodismo, Medios Digitales, Comunicación, Transparencia, Combate a la Corrupción y temas de actualidad., Universidad de Guadalajara

Este artículo fue publicado originalmente en The Conversation. Lea el original.