OpenAI bloquea cuentas que explotan ChatGPT para código de monitoreo de redes sociales

OpenAI ha prohibido varias cuentas originarias de China que estaban haciendo mal uso de su tecnología ChatGPT para desarrollar una herramienta de vigilancia de redes sociales impulsada por IA. Estas cuentas utilizaron ChatGPT para escribir argumentos de venta y depurar código para un programa diseñado para monitorear el sentimiento anti-chino en plataformas como X (anteriormente Twitter), Facebook, YouTube e Instagram. La herramienta tenía como objetivo identificar convocatorias de protestas contra las violaciones de derechos humanos en China, con la intención de compartir estos conocimientos con las autoridades chinas. Además, el grupo utilizó ChatGPT para generar correos electrónicos de phishing para clientes en China.

Esta acción es parte del esfuerzo más amplio de OpenAI para prevenir el uso indebido de sus modelos de IA para actividades maliciosas, incluidas operaciones de vigilancia e influencia. En un caso relacionado, OpenAI prohibió las cuentas vinculadas a Corea del Norte que generaban currículums y perfiles en línea falsos para conseguir empleo de manera fraudulenta en empresas occidentales. Otro caso involucró una operación de fraude financiero en Camboya que utilizó ChatGPT para traducir y generar comentarios en plataformas de redes sociales.

El gobierno de Estados Unidos ha expresado su preocupación por el posible uso de tecnologías de inteligencia artificial por parte de regímenes autoritarios para reprimir la disidencia y difundir información errónea. OpenAImedidas proactivasidentificar y bloquear cuentas involucradas en tales actividades subraya los desafíos que enfrentan las empresas de IA para garantizar que sus tecnologías no sean explotadas con fines dañinos. A medida que las herramientas de IA se vuelven cada vez más accesibles, la responsabilidad de monitorear y prevenir su uso indebido sigue siendo una prioridad crítica tanto para los desarrolladores como para los formuladores de políticas.

De manera similar, DeepSeek, una startup china de inteligencia artificial, se ha enfrentado a acciones regulatorias en varios países debido a preocupaciones sobre la privacidad y la seguridad de los datos. La Comisión de Protección de Información Personal de Corea del Sur suspendió nuevas descargas de aplicaciones de inteligencia artificial de DeepSeek, alegando incumplimiento de las normas de protección de datos personales. La suspensión se mantendrá hasta que la aplicación cumpla con los estándares necesarios de la ley de privacidad, aunque el servicio web seguirá siendo accesible. Además, la Autoridad de Protección de Datos de Italia bloqueó el chatbot de DeepSeek por cuestiones de privacidad, lo que refleja un creciente escrutinio global de las aplicaciones de inteligencia artificial que pueden comprometer los datos de los usuarios.

Más información:Los piratas informáticos están utilizando la IA Gemini de Google: ¿cómo la están explotando?

Estos casos resaltan los desafíos globales en la regulación de las tecnologías de IA, equilibrando la innovación con el imperativo de proteger la privacidad del usuario y prevenir el uso indebido. A medida que la IA continúa evolucionando, las empresas y los gobiernos de todo el mundo luchan por establecer marcos que fomenten el avance tecnológico y al mismo tiempo salvaguarden los estándares éticos y los derechos humanos.