Manipulación de la información, difusión de fake news (noticias falsas), alteración de la voz e imagen de candidatos (deep fakes), administración indebida de datos para fabricar tendencias y hasta el uso de algoritmos en plataformas digitales para inducir el voto son algunos riesgos de la inteligencia artificial que Julio César Bonilla, comisionado de transparencia, advierte durante las elecciones.
La advertencia no es ociosa, pues a nivel global, la desinformación electoral y el uso malintencionado de la inteligencia artificial se ha convertido en una preocupación para los gigantes de la tecnología.
El 16 de febrero, la agencia Bloomberg informó que OpenAI, Amazon, Google y otras 17 compañías de tecnología anunciaron un acuerdo para tratar de evitar que la inteligencia artificial se utilice para engañar a los votantes en las próximas elecciones globales.
Hace unas semanas, la aspirante presidencial de Morena, Claudia Sheinbaum, fue víctima de un video creado con inteligencia artificial.
“Fíjense qué barbaridad, es un video que están haciendo con inteligencia artificial, porque van a ver que es mi voz, pero es un fraude, están diciendo que vamos a entregar dinero”, aclaró Sheinbaum rápidamente.
Sin embargo, en entrevista con MILENIO, Bonilla Gutiérrez, integrante del Instituto de Transparencia, Acceso a la Información, Protección de Datos Personales y Rendición de Cuentas de la Ciudad de México (Info CdMx), afirma que, ante tal riesgo de desinformación durante las campañas electorales, los ciudadanos deben ser cuidadosos de los desafíos dañinos que representa la inteligencia artificial.
“Es cierto, el Estado mexicano, el Estado en términos globales, tiene esa obligación, pero también nosotros como ciudadanas y ciudadanos que ahora somos mayoritariamente digitales”, aclara.
Sobre todo, explica, porque hay lagunas en las leyes mexicanas para regular la inteligencia artificial; la Ley Federal de Protección de Datos Personales en Posesión de Particulares, que data del 2010, debe actualizarse.
“El desarrollo tecnológico avanza un ritmo muy acelerado y esta ley, que regula a empresas y a gigantes digitales, tiene que actualizar el régimen de control al metaverso, a los algoritmos, a la inteligencia artificial, a la propia convivencia con los gigantes digitales”, detalla Bonilla.
Ante ello, apuesta a que los ciudadanos sean proactivos y cuidadosos ante el riesgo de caer en engaños informativos.
“Somos una sociedad que, a diferencia de hace 40 años, cuando solamente recibíamos información, tenemos la posibilidad de interactuar de manera directa en democracia porque los controles, horizontales y verticales, del poder, se han roto”, dice.
- Te recomendamos Congreso mundial de la telefonía móvil arranca en Barcelona con IA como protagonista Negocios
Verificar fuentes y tener autocontrol en la red
La verificación de la información mediante el uso de herramientas de transparencia y el autocontrol de los ciudadanos en la red son los antídotos que el Bonilla recomienda ante los riesgos de desinformación.
“Vivimos en una época en que las redes sociales son una especie de océano, donde conviven, al mismo tiempo, rebaños de ovejas y manadas de lobos, y no sabemos quién es quién”, explica.
“Vamos a ver cómo participa la ciudadanía en este caso, pero imagina que las redes sociales, las fake news, la posverdad, empiecen a utilizar los mecanismos digitales, las redes sociales, la inteligencia artificial, los algoritmos, para alterar resultados y que ese día de la jornada electoral estén desinformando a la gente. ¿Qué tenemos que hacer como ciudadanía? Acudir a la fuente, al origen de la información”, dice Bonilla.
“Tenemos la obligación ciudadana, cívica, diría yo, de ir a los portales de partidos políticos, de instituciones electorales, de las instituciones de transparencia, de universidades públicas y privadas, de órganos internacionales, que tengan una lectura objetiva sobre lo que está sucediendo en nuestro proceso electoral y el día de la jornada electoral”, añade el comisionado.
─Eso implica un esfuerzo del ciudadano por no quedarse con la información primera, ¿no es así?─.
"Claro, claro. Me parece que esta calidad que acabas de describir es una calidad de ciudadanía a la que todos aspiramos en el planeta y en México desde hace ya mucho tiempo: una ciudadanía activa, participativa, involucrada en los asuntos públicos, no solamente receptiva, como fue durante mucho tiempo".
Además de ser responsables de lo que consumen en las redes, Bonilla también afirma que los ciudadanos deben cuidar los datos que comparten y que permiten a las empresas retroalimentarlos de información específica.
“Una premisa es la autocontención, el autocontrol que debemos tener cuando interactuamos con el mundo digital, porque ingresamos a una plataforma cualquiera y le decimos ‘sí’ a todo… ¿Y sabes a qué le estás diciendo que sí? No, no sabes. Y después… ¿cuántas veces hemos pensado que ese aparato nos escucha? Claro, le diste autorización al acceso al micrófono, a contactos, imágenes, videos”, expone.
Cuando no se leen los avisos de privacidad, se autoriza sin saber el acceso a datos que revelan afinidades ideológicas, políticas, personales y de consumo, añade el comisionado.
“Tras cada like, tras cada tarjeta, tras cada subida de imagen, tras cada ‘siguiendo’, hay una empresa multimillonaria detrás que no duerme y que está administrando masivamente tus datos”, recuerda.
Lo grave, dice, es cuando una plataforma no solo use los datos personales para recomendar música o compras, sino que también pueda usar las filias, las fobias o las identidades ideológicas, políticas de la gente para inducir al voto, como ya ocurrió en varios casos a nivel mundial y sobre lo cual, a la fecha, no hay una regulación.
“Incluso teniendo normativa, los humanos siempre encontramos un espacio para poder incidir, positiva y negativamente, en cualquier cosa. Por eso tenemos la urgencia de crear una normativa que contenga, al mínimo, este tipo de irregularidades en materia político-electoral. Nadie, me parece, que en México ni en el mundo, nos queremos volver a enfrentar a fenómenos como el del Cambridge Analytica, el Brexit, el asalto al Capitolio, el voto de ‘No a la paz’ en Colombia, el plebiscito constitucional chileno o la elección de Lula y Bolsonaro en Brasil”, dice.
EHR