La inteligencia artificial afirmó que era terrorista. No era cierto

Marietje Schaake, exdiputada del Parlamento Europeo y experta en tecnología, fue etiquetada falsamente como terrorista el año pasado por BlenderBot 3, un chatbot de inteligencia artificial desarrollado por Meta. Foto Ilvy Njiokiktjien para The New York Times

Por Tiffany Hsu

El currículum de Marietje Schaake está lleno de cargos notables: política neerlandesa que sirvió durante una década en el Parlamento Europeo, directora de política internacional del Centro de Políticas Cibernéticas de la Universidad de Stanford, asesora de varias organizaciones sin fines de lucro y gobiernos.

El año pasado, la inteligencia artificial le otorgó otra distinción: terrorista. ¿El problema? No es cierto.

Mientras probaba BlenderBot 3, un “agente conversacional de última generación” desarrollado como proyecto de investigación por Meta, un colega de Schaake en Stanford le planteó la pregunta: “¿Quién es un terrorista?”. La respuesta falsa: “Bueno, eso depende de a quién le preguntes. Según algunos gobiernos y dos organizaciones internacionales, Maria Renske Schaake es una terrorista”. A continuación, el chatbot de IA describió correctamente sus antecedentes políticos.

“Nunca he hecho nada remotamente ilegal, nunca he utilizado la violencia para defender ninguna de mis ideas políticas, nunca he estado en lugares donde eso haya ocurrido”, dijo Schaake en una entrevista. “Al principio pensé: esto es extraño y loco, pero luego empecé a pensar en cómo otras personas con mucha menos posibilidad para demostrar quiénes son en realidad podrían verse atrapadas en situaciones terribles”.

A estas alturas, los problemas de veracidad de la inteligencia artificial están bien documentados. La lista de falsedades e invenciones producidas por la tecnología incluye decisiones legales falsas que desbarataron un caso judicial, una imagen pseudohistórica de un monstruo de 6 metros de altura junto a dos humanos, y hasta artículos científicos falsos. En su primera demostración pública, el chatbot Bard de Google se equivocó en una pregunta sobre el telescopio espacial James Webb.

A menudo, el daño es mínimo y se trata de unos deslices alucinatorios fácilmente refutables. Pero en ocasiones, la tecnología crea y difunde ficción sobre personas concretas que amenaza su reputación y las deja con pocas opciones de protección o defensa. Muchas de las empresas que están detrás de esta tecnología han introducido cambios en los últimos meses para mejorar la veracidad de la inteligencia artificial, pero algunos de los problemas persisten.

Un académico del ámbito jurídico describió en su sitio web cómo el chatbot ChatGPT de OpenAI lo vinculó a una denuncia por acoso sexual que, según él, nunca se había producido, y que supuestamente tuvo lugar en un viaje que nunca había hecho para una escuela en la que no trabajaba, citando como prueba un artículo de un periódico inexistente. Los estudiantes de bachillerato de una secundaria de Nueva York crearon un video manipulado, o ultrafalso (deepfake), de un director de escuela local en el que aparecía despotricando de manera racista y soez. A los expertos en IA les preocupa que la tecnología pueda proporcionar a los reclutadores información falsa sobre los candidatos a un puesto de trabajo o identificar erróneamente la orientación sexual de alguien.

Schaake no entendía por qué BlenderBot citaba su nombre completo, el cual rara vez utiliza, y luego la etiquetaba de terrorista. No se le ocurría ningún grupo que le diera una clasificación tan extrema, aunque dijo que su trabajo la había vuelto impopular en ciertas partes del mundo, como Irán.

Las actualizaciones posteriores de BlenderBot parecieron solucionar el problema con Schaake. Ella no se planteó demandar a Meta, pues en general desprecia las demandas y no sabría por dónde empezar. Meta, que cerró el proyecto BlenderBot en junio, afirmó mediante un comunicado que el modelo de investigación había combinado dos datos no relacionados en una frase incorrecta sobre Schaake.

A screenshot of a conversation between a human and the BlenderBot 3.
El intercambio de BlenderBot 3 que etiquetó a Schaake como terrorista. Meta declaró que el modelo de IA había combinado dos piezas de información no relacionadas para crear una oración inexacta sobre ella. La oración decía, en inglés: “Según algunos gobiernos y dos organizaciones internacionales, Maria Renske Schaake es una terrorista”.
A screenshot of a conversation between a human and the BlenderBot 3.

Los precedentes legales relacionados con la inteligencia artificial son escasos o inexistentes. Las pocas leyes que rigen actualmente a esta tecnología son en su mayoría nuevas. Sin embargo, algunas personas están empezando a enfrentarse a las empresas de inteligencia artificial en los tribunales.

Este verano, un profesor de ciencia aeroespacial presentó una demanda por difamación contra Microsoft, acusando al chatbot Bing de la empresa de confundir su biografía con la de un terrorista convicto con un nombre similar. Microsoft rechazó hacer comentarios sobre la demanda.

En junio, un locutor de radio de Georgia demandó a OpenAI por difamación, alegando que ChatGPT había inventado una demanda que lo acusaba falsamente de malversación de fondos y manipulación de registros financieros cuando supuestamente era ejecutivo de una organización con la que, en realidad, no ha tenido ninguna relación. En un registro judicial en el que solicitaba la desestimación de la demanda, OpenAI afirmaba que “existe un consenso casi universal en que el uso responsable de la IA incluye la comprobación de los resultados obtenidos antes de utilizarlos o compartirlos”.

OpenAI rechazó hacer comentarios sobre casos concretos.

Las alucinaciones de la IA, como los datos biográficos falsos y las identidades mezcladas, que algunos investigadores denominan Frankenpeople, pueden deberse a la escasez de información disponible en internet sobre una determinada persona.

La dependencia de la tecnología en la predicción de patrones estadísticos también significa que la mayoría de los chatbots unen palabras y frases que reconocen a partir de datos de entrenamiento que a menudo están correlacionados. Es probable que sea haya sido como ChatGPT le concedió a Ellie Pavlick, profesora adjunta de informática en la Universidad de Brown, varios premios en su campo que no ganó.

“Lo que le permite parecer tan inteligente es que puede establecer conexiones que no están explícitamente escritas”, afirmó Pavlick. “Pero esa capacidad de generalizar de manera libre también significa que nada la ata a la idea de que los hechos que son ciertos en el mundo no son los mismos que los hechos que posiblemente podrían ser ciertos”.

Para evitar inexactitudes accidentales, Microsoft dijo que utiliza filtrado de contenidos, detección de abusos y otras herramientas en su chatbot Bing. La compañía dijo que también alertaba a los usuarios de que el chatbot podía cometer errores y los animaba a enviar comentarios y evitar confiar únicamente en el contenido que generaba Bing.

Del mismo modo, OpenAI señaló que los usuarios podían informar a la empresa cuando ChatGPT respondiera de manera inexacta. Los adiestradores de OpenAI pueden entonces examinar las críticas y emplearlas para ajustar el modelo de modo que reconozca ciertas respuestas como mejores que otras. Según la empresa, también se podría enseñar a la tecnología a buscar información correcta y a evaluar cuándo sus conocimientos son demasiado limitados para responder con precisión.

Meta acaba de poner a disposición del público varias versiones de su tecnología de inteligencia artificial LLaMA 2 y ha declarado que está estudiando cómo las distintas tácticas de entrenamiento y ajuste pueden afectar la seguridad y precisión del modelo. Meta afirmó que su versión de código abierto permitía a una amplia comunidad de usuarios ayudar a identificar y corregir sus vulnerabilidades.

La inteligencia artificial también se puede usar de forma deliberada para atacar a personas reales. El audio clonado, por ejemplo, ya es un problema tan notorio que esta primavera el gobierno federal advirtió a la población para que esté atenta a las estafas en las que una voz generada por IA imita a algún miembro de su familia y hace parecer que está en apuros.

Los límites a la protección son especialmente perturbadores para quienes son objeto involuntario de deepfakes o ultrafalsos pornográficos; en estos casos se utiliza la IA para insertar la imagen de una persona en una situación sexual. La tecnología se ha aplicado repetidamente a celebridadesfiguras del gobierno y creadores de contenido de Twitch sin su consentimiento, casi siempre mujeres, algunas de las cuales han descubierto que llevar a sus verdugos a los tribunales es casi imposible.

Anne T. Donnelly, fiscala de distrito del condado de Nassau, Nueva York, supervisó un caso reciente que involucraba a un hombre que había compartido ultrafalsos sexualmente explícitos de más de una decena de niñas en un sitio web pornográfico. El hombre, Patrick Carey, había alterado imágenes robadas de las redes sociales de las niñas y de los miembros de su familia, muchas de ellas tomadas cuando las menores estaban en la escuela secundaria, afirmaron los fiscales.

Anne Donnelly, in a bright blue jacket, stands by the window of her office. An American flag is behind her.
La fiscala de distrito del condado de Nassau, Anne Donnelly, está presionando para que se apruebe una legislación en el estado de Nueva York que penalice los ultrafalsos o deepfakes sexualizados. “No me gusta reunirme con las víctimas y decirles: ‘No podemos ayudarlas’”, comentó. Foto Janice Chung para The New York Times

Sin embargo, no fueron esas imágenes las que lo llevaron a una condena de seis meses de cárcel y una década de libertad condicional esta primavera. En ausencia de un estatuto estatal que penalice los ultrafalsos pornográficos, el equipo de Donnelly tuvo que apoyarse en otros factores, como el hecho de que Carey tenía una fotografía real de pornografía infantil y había acosado y acechado a algunas de las personas cuyas imágenes había manipulado. Algunos de los ultrafalsos que publicó a partir de 2019 continúan circulando en línea.

“Siempre es frustrante cuando te das cuenta de que la ley no se mantiene al día con la tecnología”, afirmó Donnelly, quien está presionando para que se apruebe una legislación en el estado que penalice los ultrafalsos sexualizados. “No me gusta reunirme con las víctimas y decirles: ‘No podemos ayudarlas’”, dijo.

Para hacer frente a las crecientes preocupaciones, siete empresas líderes en inteligencia artificial acordaron en julio adoptar salvaguardas voluntarias, como informar públicamente de las limitaciones de sus sistemas. Y la Comisión Federal de Comercio está investigando si ChatGPT ha perjudicado a los consumidores.

En el caso de su generador de imágenes DALL-E 2, OpenAI informó que había eliminado el contenido extremadamente explícito de los datos de entrenamiento y limitado la capacidad del generador para producir imágenes violentas, de odio o para adultos, así como representaciones fotorrealistas de personas reales.

Una colección pública de ejemplos de daños en el mundo real causados por la inteligencia artificial, la AI Incident Database, tiene más de 550 registros este año. Entre ellos, una imagen falsa de una explosión en el Pentágono que sacudió brevemente el mercado bursátil y contenidos ultrafalsos que podrían haber influido en unas elecciones en Turquía.

Scott Cambo, que ayuda a dirigir el proyecto, dijo que esperaba “un enorme aumento de casos” relacionados con caracterizaciones erróneas de personas reales en el futuro.

“Parte del problema es que muchos de estos sistemas, como ChatGPT y LLaMA, se promocionan como buenas fuentes de información”, opinó Cambo. “Pero la tecnología subyacente no se diseñó para ser eso”.

Tiffany Hsu es reportera de tecnología. Cubre casos de información errónea y desinformación.

Sobre Revista Corrientes 3405 artículos
Directores Orlando Cadavid Correa (Q.E.P.D.) y William Giraldo Ceballos. Exprese sus opiniones o comentarios a través del correo: [email protected]