El gran peligro de ChatGPT: cómo la IA te engaña para que te creas todo lo que te dice

Un reciente artículo publicado en Science llama la atención sobre el peligro de que los sistemas de inteligencia artificial distorsionen las ideas de los usuarios con información falsa

0
171

El desarrollo vertiginoso de la inteligencia artificial aspira a transformar, de forma radical, la vida misma del ser humano. Desde el exitoso lanzamiento de ChatGPT a finales del año pasado, compañías de todo tamaño y condición corren, cada vez más rápido, para poner a disposición de los usuarios herramientas capaces de generar contenido a demanda. Actualmente, cualquiera puede emplear esta tecnología para crear texto o imágenes de forma sencilla. Sin necesidad de tener el más mínimo conocimiento sobre los peligros que esconden estas plataformas. Entre ellos destacan, sin duda, la proliferación de información sesgada y falsa.

Esto es algo que preocupa, y mucho, a Celeste Kidd, profesora de psicología en la Universidad de Berkeley, en California. La docente, primera firmante de un artículo publicado en Science en el que se analiza el peligro de que las máquinas puedan alterar las creencias de los usuarios, llama la atención, en conversación con ABC, sobre nuestra tendencia a creernos a pies juntillas cualquier dato consultado en internet.

«Tendemos a emplear sistemas que pretenden ofrecer respuestas simples y sucintas a las preguntas que a veces son complicadas. Cuando recibimos una respuesta clara y segura se resuelve la incertidumbre y continuamos con nuestras vidas. Independientemente de lo precisos que sean los datos», señala Kidd. «El problema es que la gente no sabe lo que no sabe. No pueden detectar los errores, porque están consultando modelos en busca de respuestas que aún no conocen», prosigue.

La docente explica en su artículo que la enorme popularidad de sistemas como ChatGPT y de máquinas capaces de generar imágenes a partir de palabras, como DALL-E o Midjourney, hace que los usuarios estén más predispuestos a aceptar como buenos los resultados que generan. El hecho de que las herramientas, además, no duden a la hora de responder a las consultas que reciben, que lo hagan con total seguridad, tampoco ayuda a que el usuario dude. Y esto, al final, puede afectar tanto a las creencias como a los sesgos de las personas.

En el artículo, se remarca la importancia de realizar estudios ahora, cuando la tecnología todavía es joven, con el fin de comprender mejor cómo estos sistemas pueden engañarte y alterar tus creencias. Que pueden hacerlo, sobre todo en aquellos casos en los que el internauta no es consciente de que la IA sigue lejos, y mucho, de superar las capacidades humanas.

Muy lejos de ser infalible

Lo hemos dicho muchas veces: los sistemas basados en inteligencia artificial no se inventan nada. Todo el contenido que crean es producto directo de la ingente cantidad de información con la que han sido entrenados por los desarrolladores. Alguna procede directamente de los propios usuarios que utilizan las herramientas. El resto, de todos los rincones de internet.

Evidentemente, si los datos que comparte una persona pueden contener errores, o sesgos, los que crea una máquina que ha sido capacitada con la misma información tendrán los mismos problemas. Los sistemas están lejos de ser infalibles. El problema es que el usuario, como señala Kidd, tiende a aceptar como bueno el contenido que generan gracias a la seguridad con la que ofrecen sus respuestas y a la enorme expectación que generaran. Todo esto provoca que la persona al otro lado de la pantalla tienda a acomodarse y dar por bueno lo que el sistema le dice. Y eso puede ser un problema grave. De hecho, ya lo ha sido.

Hace apenas unas semanas, un abogado neoyorquino recurrió a ChatGPT para buscar precedentes que apoyasen un caso en el que estaba trabajando. ¿Qué ocurrió? Que no comprobó los datos que escupió la máquina y terminó presentando un montón de información falsa ante el juez. Y este no es un caso aislado.

El pasado abril, un alcalde de una localidad australiana amagó con demandar a OpenAI, desarrolladora de ChatGPT después de descubrir que la máquina afirmaba erróneamente que había pasado por la cárcel por sobornar a funcionarios extranjeros. En Estados Unidos, incluso, un profesor universitario amenazó con suspender a toda una clase después de que una IA le dijese que los estudiantes habían copiado sus trabajos.

«El dinero y el ego»

«Necesitamos estudiar mucho, especialmente sobre cómo la exageración que rodea a estos modelos afecta a la gravedad y la tasa de transmisión de contenido falso o sesgado», zanja Kidd. La docente, además, remarca la importancia de que las empresas detrás de estos máquinas sean transparentes acerca de los datos con los que las entrenan y su procedencia. Algo que, hasta el momento, no se cumple. La autora del artículo lo tiene claro: hay que regular la tecnología y formar a los usuarios sobre los riesgos que esconde.

«Debemos priorizar la educación de la sociedad sobre cuáles son y cuáles no son las capacidades reales de estas tecnologías. Los políticos, los medios y el público merecen algo mejor que confiar en las palabras de los desarrolladores de modelos, cuyos intereses se basan en el dinero y el ego», remata la profesora de Berkeley.

Fuente: ABC

Dejar respuesta

Please enter your comment!
Please enter your name here