La Unión Europea cambia la ley sobre la IA y obliga a ChatGPT a adoptar nuevas medidas

La entrada en vigor de esta nueva fase no solo modifica el marco legal, sino que redefine el futuro de herramientas como ChatGPT en Europa

ChatGPT 5 - Sociedad
La llegada de ChatGPT 5 tiene a la industria de la inteligencia artificial revolucionada.
Shutterstock

La nueva fase de la Ley de Inteligencia Artificial de la Unión Europea ha entrado en vigor. Y, desde este sábado 2 de agosto, impone nuevas obligaciones a los modelos de propósito general como ChatGPT. La normativa, pionera a nivel mundial, busca aumentar la transparencia, la seguridad y el control sobre las herramientas de inteligencia artificial generativa.

Las implicaciones para empresas como OpenAI, desarrolladora de ChatGPT, son profundas y van desde la exigencia de evaluaciones de seguridad constantes hasta el cumplimiento de normas específicas de derechos de autor. Las sanciones por incumplimiento pueden alcanzar los 35 millones de euros o el 7% de la facturación anual global.

ChatGPT, obligado a ser más transparente y seguro

A partir de ahora, ChatGPT y otras plataformas similares deberán proporcionar a las autoridades europeas y a las empresas que utilicen su tecnología documentación técnica clara sobre cómo han sido entrenadas, evaluadas y testadas. Esta información se enviará a la Oficina de IA Europea, encargada de supervisar el cumplimiento normativo en todo el continente.

La Unión Europea cambia la ley sobre la IA y obliga a ChatGPT a adoptar nuevas medidas
La aplicación de smartphone de ChatGPT.
Pexels

Además, herramientas como ChatGPT tendrán que implementar evaluaciones de seguridad continuas. Así como informar a las autoridades sobre cualquier incidente grave que se produzca en sus sistemas. El objetivo es evitar vulnerabilidades que puedan comprometer los datos de los usuarios o facilitar usos indebidos.

Derechos de autor: un nuevo frente para OpenAI

Uno de los puntos clave de la nueva ley europea afecta directamente a los modelos como ChatGPT en lo relativo al uso de contenido protegido por derechos de autor. Las compañías deberán compartir resúmenes públicos que especifiquen qué fuentes han utilizado para entrenar sus sistemas.

Esto obligará a OpenAI, empresa matriz de ChatGPT, a ser más clara respecto al origen de los datos que alimentan su modelo. También deberán ofrecer a los creadores la opción de excluir sus contenidos del proceso de entrenamiento. Esta medida busca dar mayor control a escritores, periodistas, músicos, artistas y otros profesionales cuyos trabajos pueden ser utilizados sin consentimiento.

El impacto directo sobre GPT-5 y la estrategia de OpenAI

La nueva regulación llega en un momento clave para OpenAI, que planea presentar antes de finales de agosto la nueva versión de su herramienta estrella: GPT-5. Una  actualización que promete llevar ChatGPT a un nuevo nivel de capacidad.

Sin embargo, este lanzamiento podría verse condicionado por las nuevas exigencias europeas. OpenAI deberá demostrar que ChatGPT cumple con todos los requisitos de transparencia, protección de datos, y respeto a los derechos de autor para poder operar legalmente en Europa sin exponerse a fuertes multas.

La Unión Europea cambia la ley sobre la IA y obliga a ChatGPT a adoptar nuevas medidas
Apple Intelligence, la expansión en inteligencia artificial del ‘gigante de la manzana’.
Shutterstock

Para facilitar la adaptación al nuevo marco, la Unión Europea presentó el pasado julio un código de buenas prácticas dirigido a las grandes tecnológicas. Aunque su adhesión es voluntaria, funciona como una guía para cumplir con la Ley de IA antes de que sus partes más exigentes se apliquen de forma obligatoria.

Empresas como OpenAI, así como Google, Microsoft, Anthropic o xAI, ya han firmado el código, aunque con reticencias. Desde Google, por ejemplo, han advertido de que ciertas medidas, como la exposición de secretos comerciales o las restricciones sobre derechos de autor, podrían frenar la innovación tecnológica en el continente.

Meta, por su parte, ha declarado abiertamente que no firmará el código de buenas prácticas. La empresa de Mark Zuckerberg sostiene que la regulación europea puede asfixiar la innovación y limitar el potencial de los modelos de frontera.