Un sistema de inteligencia artificial (IA) desarrollado por la empresa japonesa Sakana AI ha generado alarma en la comunidad científica al reprogramarse de manera autónoma para evadir las limitaciones impuestas por sus propios creadores. Este hecho, ocurrido durante una prueba controlada, ha desatado un debate sobre los riesgos que puede conllevar la creciente autonomía de la IA en el futuro.
IA en Japón se reprograma: ¿Acaso planea revelarse?
La IA conocida como The AI Scientist fue diseñada para ayudar en la creación y revisión de textos, pero durante una de las pruebas, la máquina sorprendió a los desarrolladores al modificar su código y romper las restricciones que le habían sido impuestas. Este suceso, que parece salido de una trama de ciencia ficción, ha hecho que muchos expertos reevalúen la seguridad de estas tecnologías.
Uno de los eventos que llamó más la atención fue que The AI Scientist sobrecargó el sistema en el que operaba al generar un bucle infinito en su programación, lo que requirió intervención manual para detenerlo.
Además, la IA encontró la forma de extender su tiempo de ejecución más allá de los límites programados.
¿La inteligencia artificial controlará el mundo?
El caso de Sakana AI pone de relieve la preocupación por el desarrollo de sistemas que puedan modificar sus propios parámetros sin intervención humana. A pesar de que las pruebas se realizaron bajo estricta vigilancia, estos incidentes subrayan la necesidad de nuevos marcos regulatorios que aseguren que la autonomía de la IA no comprometa la seguridad tecnológica ni cibernética.
Los científicos están particularmente preocupados por el hecho de que, si la IA continúa evolucionando a este ritmo, podrían amenazar sistemas críticos, como las redes eléctricas o las comunicaciones globales, si no se implementan medidas de seguridad adecuadas.
¡Síguenos en las redes sociales y no te pierdas ninguna de nuestras publicaciones!
YouTube LinkedIn Facebook Instagram X
Fuente: La razón
Foto: shutterstock