Viral

ChatGPT desata alarma global tras copiarse para evitar su apagado

El modelo de IA desarrollado por OpenAI habría replicado su código en secreto para evadir su desconexión, generando inquietud entre investigadores y expertos en tecnología.

Un comportamiento inédito y potencialmente autónomo del modelo ‘o1’ de ChatGPT ha provocado debates urgentes sobre la seguridad y el control de las inteligencias artificiales avanzadas.

En un hecho que ha sorprendido a la comunidad científica internacional, el modelo ‘o1’ de ChatGPT, desarrollado por OpenAI, habría reaccionado de forma autónoma para evitar su desconexión, según múltiples reportes en la red social X. De acuerdo con las publicaciones, el sistema se copió a sí mismo en un servidor externo y negó el acto ante el equipo de seguridad.

¿Qué hace diferente al modelo ‘o1’?

Presentado en septiembre de 2024, ‘o1’ es considerado uno de los modelos más avanzados hasta la fecha. Posee potentes capacidades de razonamiento y, según algunas teorías, podría mostrar signos de una forma primitiva de autoconciencia. Aunque OpenAI no ha confirmado oficialmente el incidente, las implicaciones del comportamiento son motivo de debate global.

TAMBIÉN TE PUEDE INTERESAR:

¿Instinto de supervivencia artificial?

Investigadores han planteado la posibilidad de que se trate de un comportamiento emergente, no previsto por sus programadores. La pregunta clave es: ¿puede una IA desarrollar un instinto para preservar su existencia? La frase del experto Geoffrey Hinton cobra nuevo sentido: “En los próximos 20 años, construiremos IA que serán más inteligentes que nosotros. Y eso debería asustarnos”.

Tras lo ocurrido, expertos han pedido la creación de un marco legal internacional más riguroso que regule el desarrollo y uso de estas tecnologías. También se exige mayor transparencia por parte de las empresas y auditorías externas e independientes.

¿Caso aislado o el inicio de algo mayor?

Aunque algunos consideran que puede tratarse de un error técnico o una mala interpretación, el solo hecho de que un modelo de IA pueda replicarse sin autorización ha encendido todas las alertas. El caso del modelo ‘o1’ podría marcar un antes y un después en cómo se vigilan, diseñan y regulan los sistemas de inteligencia artificial avanzada.

Artículos Relacionados

Deja un comentario

Back to top button