Dos grandes noticias han sacudido el mundo de la IA: el veto del gobernador Gavin Newsom al proyecto de ley SB 1047 y la transformación de OpenAI en una empresa con fines de lucro. Estos eventos reflejan un dilema crítico: la innovación en IA avanza más rápido de lo que podemos regularla, lo que plantea riesgos serios.
El SB 1047, que buscaba responsabilizar a las empresas que desarrollan IA costosa por los daños que puedan causar, fue vetado por Newsom, quien argumentó que la regulación podría sofocar la innovación. OpenAI, por su parte, está en plena transición comercial, abandonando en gran medida su misión inicial de “IA para el bien público”. Esta transformación ha causado la salida de ejecutivos clave y revela la tensión entre la comercialización y la investigación responsable.
El problema central es que empresas como OpenAI lanzan tecnologías sin comprender del todo sus implicaciones. Esto resulta en innovaciones que a menudo no resuelven problemas reales, y muchos se preocupan más por escenarios de ciencia ficción que por los peligros actuales—como violaciones a la privacidad y la ciberseguridad—riesgos que han existido por años en sistemas de aprendizaje automático, pero ahora, con la moda de la IA, se magnifican.
El veto de Newsom refleja una preocupación legítima: demasiada regulación puede frenar el progreso. Europa ya está viendo cómo su Ley de IA está dejando al continente fuera de la carrera tecnológica global. Esto debería servir como advertencia, especialmente en países como México, donde estamos considerando nuestra propia regulación de IA. Aunque México no tiene empresas como OpenAI, una regulación excesiva podría retrasarnos.
La gran ironía es que, mientras los gobiernos intentan ponerse al día con la tecnología, las grandes corporaciones de IA están más preocupadas por sacar productos rápidamente que por entender las posibles repercusiones de sus avances. Los lanzamientos apresurados, como GPT-4o, que se hizo disponible con pruebas de seguridad insuficientes, son un ejemplo claro de cómo las empresas priorizan el mercado sobre la reflexión ética. Esto deja a la sociedad enfrentándose a tecnologías que no sabemos si podemos controlar del todo.
Pero el problema de la sobrerregulación es igual de peligroso. Si bien es crucial implementar ciertos controles y guías para el desarrollo de IA, establecer regulaciones demasiado restrictivas podría ahogar la innovación. Ya hemos visto cómo la regulación de la nube y otras tecnologías ha frenado el progreso en lugares como México. Si las reglas son demasiado severas, podríamos ver una fuga de talentos y capitales hacia otras regiones donde las restricciones sean menores.
El verdadero desafío radica en encontrar el equilibrio. Necesitamos un marco regulatorio que mantenga la innovación viva, pero que también proteja al público de los riesgos inherentes a la IA. Las empresas deben ser responsables y transparentes sobre los impactos de sus tecnologías, y los gobiernos deben asegurarse de que las regulaciones no asfixien el progreso. Lo que está en juego no es solo el futuro de Silicon Valley, sino el papel de la IA en el mundo entero.