Martes, 07 de Mayo de 2024 Llovizna ligera 16.9 °C llovizna ligera
 
Lunes, 11 de Octubre de 2021 Llovizna ligera 16.9 °C llovizna ligera
 
Dólar BNA: $924
Dólar Blue: $1045
Tecnología

Abren una investigación sobre OpenAI y su ChatGPT en Estados Unidos

chatgpt

La Comisión Federal de Comercio (FTC, por sus siglas en inglés) abrió una investigación sobre OpenAI, la empresa de inteligencia artificial que le dio origen al ChatGPT. El objetivo es determinar si el bot pone en riesgo los datos personales de sus usuarios, infringiendo las leyes vigentes de protección al consumidor.

En ese sentido, la FTC demandó a la empresa esta semana. A partir de ahí, se generó una investigación civil a OpenAI, en la que su líder, Sam Altman, deberá responder varias preguntas relacionadas a las prácticas de su producto a la hora de entrenar modelos de inteligencia artificial y a su política de manejo de la información personal de sus usuarios.

Entre los ejemplos citados en la demanda, según informó el medio estadounidense The Washington Post, figura un episodio que tuvo lugar en 2020, cuando la empresa reveló un error en el ChatGPT. Esa vez, los usuarios pudieron acceder durante un breve período a leer otros chats y obtener información de pago de otras personas.

Tras su lanzamiento en noviembre pasado, ChatGPT revolucionó internet, consiguiendo 100 millones de descargas en sus primeros 2 meses. Esta herramienta es un bot diseñado para mantener conversaciones mediante inteligencia artificial. Su tecnología le permite comprender y responder preguntas que le hacen los usuarios, generar y traducir textos, resolver problemas matemáticos, dar recetas de comida, entre otras funciones.

Asimismo, OpenAI recibió varias quejas y denuncias por parte de los usuarios que reclamaban que el chat daba declaraciones "falsas, engañosas, despectivas o dañinas". La FTC pidió explicaciones al respecto en el marco de esta investigación en la que además se investiga si la empresa participó de prácticas desleales o engañosas para generar un "daño a la reputación" de los consumidores.

Difamación y "alucinaciones" del ChatGPT

Si bien la IA de este chatbot brinda respuestas muchas veces certeras, hay veces en las que puede dar información falsa. De hecho, una vez dijo que un abogado (que existe realmente) había hecho comentarios sexualmente sugerentes sobre una estudiante durante un viaje escolar, a la cual también había intentado tocar. El ChatGPT se había basado en un artículo que supuestamente había aparecido en The Washington Post. Sin embargo, la noticia no existía, tal viaje nunca sucedió y el abogado nunca fue acusado de acoso contra una estudiante.

En ese marco, la FTC también solicitó una descripción de los datos que la empresa usa para entrenar al ChatGPT y cómo trabaja para evitar estas "alucinaciones", episodios que se generan cuando las respuestas del bot están bien estructuradas pero son incorrectas.