
El científico Ilya Sutskever, cofundador y exjefe científico de OpenAI, la empresa creadora de ChatGPT, dejó su cargo en medio de un intenso debate sobre el futuro y la seguridad de la inteligencia artificial.
Sutskever lideraba el equipo de “Superalineación”, enfocado en garantizar que sistemas de inteligencia artificial avanzados no representen riesgos para la humanidad. Su salida ha generado preocupación en el sector tecnológico y en la comunidad internacional.
Según diversas versiones, la renuncia estaría relacionada con diferencias internas sobre la velocidad con la que deben desarrollarse y lanzarse nuevos productos de IA. Mientras algunos sectores apuestan por acelerar la innovación, otros insisten en priorizar la seguridad y el control de riesgos a largo plazo.
Tras su salida, también se conoció la disolución de su equipo de trabajo enfocado en riesgos futuros, lo que ha aumentado el debate sobre si el desarrollo de la inteligencia artificial está avanzando más rápido que las regulaciones y medidas de protección.
El hecho ha reavivado interrogantes globales: ¿Estamos preparados para una inteligencia artificial cada vez más poderosa? ¿Se están tomando las medidas necesarias para garantizar su uso responsable?
