Los sesgos de los “loros estocásticos”

Ene 15, 2024 | Publicaciones

IBARRA RIMÔN

El término “loros estocásticos” fue acuñado por Emily M. Bender, Timnit Gebru, entre otros, para referirse a la IA que no hace otra cosa que imitar el lenguaje basándose en patrones estadísticos de datos, pero sin ninguna comprensión real de su significado. La analogía alude a que la IA repite frases al azar guiada por probabilidades, como un loro, sin entender lo que dice.

La importancia de esta metáfora es que enfatiza el hecho de que la IA carece de una real comprensión del significado del lenguaje, de la información o de las conversaciones que mantiene con el usuario, toda vez que se trata de un sistema fundamentado en el azar y en unas combinaciones basadas en índices de probabilidades.

En efecto, la IA se limita a reconocer patrones derivados de grandes volúmenes de datos para calcular la respuesta más probable estadísticamente con base en modelos matemáticos, pero carece de consciencia, de imaginación, de emociones o sentimientos y de la aptitud para percibirlos, razón por la cual no pude compararse con la inteligencia humana.

Así que la denominación de “loro” deviene del hecho de que la AI se limita a repetir frases aprendidas sin entender su significado, y “estocástico” de que usa modelos aleatorios, estadísticos o probabilísticos para generar sus respuestas.

Uno de los peligros que representa la AI es la denominada “falacia antropomórfica” que, en este caso, consiste en atribuir erróneamente cualidades humanas a lo que es simplemente una tecnología sin consciencia.

Sobre el particular, los expertos señalan que el ser humano tiende a auto engañarse y a creer que está interactuando con un sistema consciente, más aún si se tiene en cuenta que la IA es capaz de sostener una conversación coherente, lo que puede facilitar esta inclinación. Entendidos como Alberto Aguiar y Emma Galdon (Bussines insider 2022), advierten que el público suele atribuir a la AI cierta autoridad y capacidades de las que realmente carece, y ello puede llevar a cometer numerosos errores, a asumir premisas equivocadas sobre lo que la IA es capaz de ejecutar y a expectativas sobredimensionadas, debido a las suposiciones engañosas sobre el desempeño de estas tecnologías.

Lo anterior facilita conductas dirigidas a manipular el sistema para explotar las vulnerabilidades humanas y propagar prejuicios y desinformación, con graves y nocivos impactos en el comportamiento social.

En pocas palabras, la falacia antropomórfica puede propiciar que la AI se convierta en un instrumento para propagar deliberadamente opiniones o mensajes que no son cuestionados, y que pueden terminar en tratamientos discriminatorios (eg: incidir en la aprobación o negativa de una póliza de seguros o de una hipoteca, con base en información tendenciosa o parcializada) e incluso llevar a situaciones de “bulling”.

Estos sesgos se ven además acentuados por la certidumbre con la que los “loros estocásticos” dan sus respuestas e informan sobre diversos campos del saber, sin revelar sus fuentes.

Otro asunto que destacan autores como Joanna Bryson, es la falta de empatía y de valores que caracteriza la IA. Abogan por la necesidad, cada vez más apremiante, de discutir la posibilidad de organizar cadenas de responsabilidad para garantizar la ética en los algoritmos. Lo cierto es que, como bien lo ha expresado Melanie Mitchel (Why AI is Harder than We Think), ningún científico ha podido encontrar la manera de dotar de sentido común a ninguna maquina o tecnología.

Así que la AI no tiene aún la capacidad de sustituir la inteligencia humana. Se asimila más a un loro que puede ser peligroso y que hay que vigilar.

asuntos-legales
columna-asuntos-legales