Hackeo a OpenAI en 2023: Detalles y Consecuencias

En 2023, OpenAI enfrentó un ciberataque que comprometió información confidencial sobre el diseño de sus tecnologías de inteligencia artificial. Aunque el incidente no fue informado al público ni a las autoridades, las preocupaciones sobre la segurid

Tecnología 08/07/2024Santiago JacquatSantiago Jacquat

En 2023, OpenAI enfrentó un ciberataque que comprometió información confidencial sobre el diseño de sus tecnologías de inteligencia artificial. Aunque el incidente no fue informado al público ni a las autoridades, las preocupaciones sobre la seguridad y las posibles amenazas extranjeras surgieron dentro de la compañía.

Hackeo a OpenAI en 2023: Detalles y Consecuencias

Información Robada por Cibercriminales

En 2023, OpenAI sufrió un ciberataque que resultó en el robo de información confidencial sobre el diseño de sus tecnologías de inteligencia artificial. El hacker obtuvo acceso a los sistemas de mensajería interna de la empresa y extrajo detalles de discusiones en un foro en línea donde los empleados compartían información sobre los últimos desarrollos de la compañía.

Impacto del Ataque

Según fuentes citadas por The New York Times, el cibercriminal solo violó el foro de discusión y no los sistemas centrales que sostienen los algoritmos y el marco de trabajo de OpenAI. OpenAI informó a sus empleados sobre el ataque en una reunión general en abril de 2023 y también notificó a su junta directiva. Sin embargo, los directivos decidieron no hacer pública la información.

Razones para No Informar al Público

Los ejecutivos de OpenAI optaron por no divulgar el incidente porque no se robó información sobre los clientes. Además, no compartieron la violación con el FBI ni con otras autoridades, argumentando que el hacker era un individuo privado sin vínculos conocidos con gobiernos extranjeros, lo cual no representaba una amenaza a la seguridad nacional.

Preocupaciones Internas y Externas

Algunos empleados de OpenAI temían que adversarios extranjeros, especialmente de China, pudieran haber obtenido secretos tecnológicos, lo que podría representar una amenaza para la seguridad nacional de Estados Unidos. Leopold Aschenbrenner, quien lideraba el equipo de superalineamiento de OpenAI, compartía estas preocupaciones y fue despedido a principios de 2024 tras compartir un documento interno con investigadores externos.

Medidas de Seguridad y Regulaciones Futuras

A pesar de que estudios realizados por Anthropic y OpenAI indican que la inteligencia artificial actual no es más peligrosa que motores de búsqueda como Google, se subraya la necesidad de mantener estrictas medidas de seguridad. Los legisladores están presionando para implementar regulaciones que impongan multas severas a las empresas de IA que causen daños sociales.

En mayo, OpenAI informó haber desmantelado cinco operaciones de influencia encubiertas que intentaban usar sus modelos de IA para actividades engañosas en la red. Esta situación ha reforzado las preocupaciones sobre el posible mal uso de la inteligencia artificial.

Esfuerzos del Gobierno para Proteger la Tecnología

La administración Biden está preparando medidas para proteger la tecnología de IA estadounidense de países como China y Rusia, planeando establecer salvaguardias alrededor de los modelos de inteligencia artificial más avanzados, incluido ChatGPT. Estas acciones reflejan la creciente importancia de asegurar la integridad y seguridad de las innovaciones tecnológicas frente a posibles amenazas internacionales.

Te puede interesar
Lo más visto

Suscríbete al newsletter para recibir periódicamente las novedades en tu email