OpenAI, la organización detrás del chatbot de IA ChatGPT, se enfrenta a una queja de privacidad en Noruega debido a que el chatbot genera información falsa y difamatoria sobre un individuo. Este incidente pone de relieve las preocupaciones actuales con respecto a la precisión y confiabilidad del contenido generado por IA.
Un individuo noruego descubrió que ChatGPT produjo información inventada alegando que había sido condenado por asesinar a dos de sus hijos e intentar matar a un tercero. Estas afirmaciones infundadas han causado un malestar significativo y un posible daño a la reputación del individuo involucrado.
El grupo de defensa de la privacidad NOYB (None of Your Business) está apoyando a la persona afectada presentando una queja ante la autoridad de protección de datos de Noruega, Datatilsynet. NOYB sostiene que ChatGPT de OpenAI viola el Reglamento General de Protección de Datos (GDPR) al producir y difundir datos personales inexactos. Joakim Söderberg, abogado de protección de datos de NOYB, afirmó: "El RGPD es claro. Los datos personales tienen que ser exactos. Si no lo son, los usuarios tienen derecho a que se modifiquen para reflejar la verdad".
Ver también:El equipo de privacidad de Apple presenta funciones de privacidad innovadoras en iOS 18
Según el RGPD, las organizaciones están obligadas a garantizar la exactitud de los datos personales que procesan. El reglamento otorga a los particulares el derecho a rectificar los datos inexactos que les conciernen. En este caso, la generación de información falsa por parte de ChatGPT sobre el denunciante podría verse como una violación de estas disposiciones. Las violaciones confirmadas del RGPD pueden dar lugar a sanciones de hasta el 4 % de la facturación anual global de una empresa.
Esta no es la primera vez que las imprecisiones de ChatGPT, a menudo denominadas "alucinaciones", han dado lugar a impugnaciones legales:
- En 2023, un alcalde australiano consideró emprender acciones legales después de que ChatGPT afirmara falsamente que había sido encarcelado por soborno.
- En 2024, la autoridad de protección de datos de Italia multó a OpenAI con 15 millones de euros por procesar datos personales sin una base legal adecuada.
- En Estados Unidos, se presentó una demanda por difamación contra OpenAI después de que ChatGPT inventara acusaciones legales contra un locutor de radio.
Estos incidentes subrayan el problema más amplio de la desinformación generada por la IA y sus posibles ramificaciones legales.
OpenAI ha reconocido que ChatGPT puede producir información inexacta y ha implementado descargos de responsabilidad que aconsejan a los usuarios que verifiquen los resultados del chatbot. Sin embargo, los críticos argumentan que tales exenciones de responsabilidad son insuficientes para mitigar el daño causado por información falsa. Si la autoridad noruega de protección de datos determina que OpenAI viola el RGPD, la empresa podría enfrentar multas sustanciales y verse obligada a implementar medidas para evitar futuras inexactitudes.
La denuncia presentada en Noruega se suma al creciente escrutinio de los sistemas de inteligencia artificial como ChatGPT y su cumplimiento de las leyes de protección de datos. A medida que la tecnología de IA continúa evolucionando, garantizar la precisión y confiabilidad del contenido generado por IA sigue siendo un desafío crítico tanto para los desarrolladores como para los reguladores.
Fuente:TechCrunch
