Los enredos y peligros de “Sora”

Mar 4, 2024 | Publicaciones

IBARRA RIMÔN

El pasado 15 de febrero, Open AI reveló su nueva herramienta “Sora” diseñada para generar videos realistas a partir de instrucciones escritas. Con este anuncio, se exacerbaron las inquietudes en torno de los videos engañosos que se pueden producir mediante la Inteligencia Artificial y, especialmente, sobre el impacto nocivo que ellos pudieran tener en la decisión de los votantes.

Desde la aparición de la IA surgieron fundados temores sobre el uso malintencionado de esta tecnología, en particular en el contexto político y electoral, en donde ya ha generado estragos. Por ejemplo, recientemente se hicieron virales imágenes falsas creadas con IA del candidato Donald Trump siendo detenido por la policía.

También se conocieron llamadas automatizadas por medio de las cuales una IA recreaba la voz de Joe Biden y desincentivaba a los votantes para participar en las elecciones primarias de New Hampshire.

En Colombia, Carlos Fernando Galán denunció en campaña que una IA reproducía su voz para crear falsos audios suyos en los que parecía que el candidato confesaba estar comprando votos.

Gracias a su apariencia realista, estas piezas tienen mayor poder de engaño que las tradicionales fake news, toda vez que pueden influir, de una manera aún más lesiva, en la percepción de los votantes sobre un candidato o partido.

En la Conferencia de Seguridad de Múnich el 16 de febrero, los gigantes tecnológicos Open AI, Meta, Google, Microsoft, entre otros, anunciaron su compromiso conjunto para combatir los usos inescrupulosos de la IA en los procesos electorales, especialmente, con miras a las próximas elecciones presidenciales de los Estados Unidos.

Esas empresas se comprometieron a identificar y a anunciar, al público, las piezas audiovisuales creadas a partir de estas tecnologías, de modo que los receptores puedan determinar con facilidad que lo que ven no corresponde a la realidad. También asumieron el compromiso de emprender campañas de educación para enseñar a identificar el contenido creado por IA.

Sin embargo, el acuerdo ha generado escepticismo, pues al parecer esas soluciones resultan insuficientes y de cuestionable eficacia. Se dice que los más incautos pasarán por alto cualquier etiquetado o anuncio que indique que la imagen proviene de una IA y ello sin mencionar la posibilidad de que las advertencias sean suprimidas mediante la edición o alteración de las piezas originales.

Por consiguiente, si realmente se busca mitigar estos riesgos, tanto los Estados como las empresas deben tomar medidas más contundentes.

Open AI aclaró que está desarrollando herramientas tales como un detector para identificar cuándo un video ha sido creado por Sora y que, además, rechazará las instrucciones que violen sus políticas de uso que prohíben la creación de contenido relacionado con violencia y explotación sexual, lo que podría extenderse a las instrucciones encaminadas a la producción de piezas de contenido político.

Por ahora, las soluciones propuestas por las Big Tech, parecieran ser bastante precarias y tímidas y de ahí que los Estados debieran pensar en expedir regulaciones y leyes que impongan sanciones, no solo a quien produce el contenido engañoso, sino también a quien lo difunde, incluyendo a los medios de comunicación y a los candidatos. A su vez, convendría imponer, a las plataformas, no solo la obligación identificar el contenido falso, sino también de eliminarlo.

Además, sería recomendable promover el desarrollo de alternativas o instrumentos tecnológicos que permitan abordar, combatir y conjurar las amenazas propias de este fenómeno.