California propone una ley para controlar los riesgos de IA y enfrenta resistencia de especialistas
16 de Agosto de 2024Un nuevo proyecto de ley exige protocolos de seguridad rigurosos e impone fuertes multas a los desarrolladores de grandes modelos de IA
Artículo publicado en itforum.com
El proyecto de ley SB 1047, que busca regular el desarrollo de grandes modelos de inteligencia artificial (IA) en California, ha generado gran controversia entre startups, especialistas en IA y grandes empresas de tecnología.
El objetivo del proyecto, propuesto por el senador estatal Scott Wiener, es evitar desastres causados por sistemas de IA al exigir protocolos de seguridad rigurosos para modelos que cuesten más de 100 millones de dólares en su desarrollo. Sin embargo, muchos en el Silicon Valley afirman que la medida podría sofocar la innovación.
El SB 1047 es un proyecto de ley de California que pretende prevenir el uso de grandes modelos de IA para causar daños críticos a la humanidad, como ataques cibernéticos o la creación de armas.
La ley responsabiliza a las empresas desarrolladoras de implementar protocolos de seguridad adecuados y se aplica a modelos que cuesten al menos 100 millones de dólares y utilicen una gran capacidad de computación. La fiscalización será realizada por una nueva agencia, la División de Modelos de Frontera (FMD, por sus siglas en inglés), que certificará los modelos y supervisará las prácticas de seguridad de las empresas.
El senador Scott Wiener, autor del SB 1047, dijo a TechCrunch que defiende el proyecto como una forma de evitar repetir errores pasados en la regulación de tecnología y proteger a los ciudadanos antes de que ocurran daños. Critica el enfoque reactivo de las políticas tecnológicas y busca anticipar problemas. "Tenemos un historial en la tecnología de esperar que los daños ocurran y luego nos desesperamos. No vamos a esperar a que ocurra algo malo. Vamos a anticiparnos".
El proyecto afectará a los modelos de IA, independientemente de dónde sean entrenados, si se utilizan en California.
El SB 1047 cuenta con el apoyo de figuras prominentes como Geoffrey Hinton y Yoshua Bengio, investigadores de IA que temen los riesgos futuros de la tecnología para la sociedad. Dan Hendrycks, director del Center for AI Safety, dijo a TechCrunch que apoya la ley y que vendió sus acciones en una startup para evitar conflictos de interés, alentando a los críticos a hacer lo mismo para demostrar sus intenciones genuinas.
Por otro lado, la firma de capital de riesgo a16z, cofundada por Marc Andreessen y Ben Horowitz, expresa una fuerte oposición al proyecto, argumentando que impondría barreras arbitrarias y crecientes para las startups a medida que la tecnología de IA avanza y se encarece. La empresa destacó que algunas de sus startups ya superan el límite de gastos propuesto en el proyecto.
Expertos en IA también se han manifestado en contra del SB 1047. Fei-Fei Li, profesora de la Universidad de Stanford y pionera en el campo, afirmó a principios de este mes que la ley perjudicaría el ecosistema emergente de IA en California. Li fundó recientemente World Labs, una startup de IA. Lanzada en abril, la empresa ya ha alcanzado el estatus de mil millones de dólares y cuenta con el apoyo de a16z.
Andrew Ng, renombrado investigador en IA, dijo en un evento en julio que el proyecto es un “ataque al código abierto”, que, por ser fácilmente modificable, puede ser más vulnerable a usos maliciosos.
Startups como Omniscience también temen que el proyecto de ley afecte negativamente al ecosistema de IA, con su CEO, Jeremy Nixon, defendiendo que solo los actores malintencionados sean responsabilizados, no los laboratorios que desarrollan IA abiertamente.
Además, gigantes tecnológicos como Google y Meta han criticado el proyecto. The Chamber of Progress, un grupo de presión que representa a empresas como Google, Apple y Amazon, afirmó que el SB 1047 restringiría la libertad de expresión y empujaría la innovación tecnológica fuera del estado. Yann LeCun, científico jefe de IA en Meta, argumentó que la propuesta se basa en una "ilusión de riesgo existencial" promovida por algunos think tanks.