fbpx

El New York Times ha revelado que un pirata informático obtuvo acceso a los sistemas de mensajería interna de OpenAI el año pasado, extrayendo detalles sobre el diseño de las tecnologías de inteligencia artificial de la compañía. El ataque se centró en discusiones en un foro en línea donde los empleados compartían información sobre los desarrollos más recientes de OpenAI, según personas familiarizadas con el incidente.

Detalles del incidente

El informe indica que, aunque el hacker accedió a información interna sensible, no ingresó a los sistemas donde OpenAI aloja y construye su inteligencia artificial, como el conocido chatbot ChatGPT. La violación fue reportada a los empleados en una reunión general en abril del año pasado y a la junta directiva de la compañía. Sin embargo, los ejecutivos de OpenAI optaron por no hacer pública la noticia, argumentando que no se había comprometido información sobre clientes o socios.

Evaluación de la amenaza

Los ejecutivos de OpenAI determinaron que el incidente no representaba una amenaza para la seguridad nacional, ya que creían que el pirata informático actuaba de manera independiente y no tenía vínculos conocidos con gobiernos extranjeros. Como resultado, la empresa con sede en San Francisco no informó a las agencias federales de seguridad sobre la filtración de datos.

Respuesta y medidas de seguridad

A pesar de este incidente, OpenAI ha tomado medidas proactivas para proteger sus sistemas. En mayo, la compañía anunció que había desmantelado cinco operaciones de influencia encubiertas que intentaban usar sus modelos de IA para actividades engañosas en Internet. Estas acciones reflejan las crecientes preocupaciones de seguridad sobre el potencial mal uso de la tecnología de inteligencia artificial.

Contexto regulador

En un contexto más amplio, la administración Biden ha mostrado interés en proteger la tecnología de inteligencia artificial de Estados Unidos frente a posibles amenazas de China y Rusia. Se están considerando planes preliminares para establecer regulaciones alrededor de los modelos de IA más avanzados, incluyendo ChatGPT, según un informe anterior de Reuters.

Lea: ¿Cultura o activismo?

Este incidente subraya la importancia de la ciberseguridad en el desarrollo y manejo de tecnologías avanzadas. Aunque OpenAI no consideró que la filtración representara una amenaza significativa, el evento destaca los riesgos continuos y la necesidad de medidas robustas para proteger la información sensible en el sector tecnológico.

OpenAI no ha respondido de inmediato a las solicitudes de comentarios sobre este incidente.

Fuentes:

Comparte en tus redes