Zuckerberg y el futuro de la Inteligencia Artificial
10 de Septiembre de 2024Por Matías Nahon, Consultor y referente en investigación y prevención de fraude corporativo. Director general de Analitix
A fines del mes pasado Mark Zuckerberg generó una amplia polémica al revelar que su proyecto "Llama" de Inteligencia Artificial (IA) iba a ser de código abierto (open source como Linux). Quienes impulsan una IA de código abierto tienden, en general, a estar en contra de la regulación porque limitaría la innovación y la accesibilidad.
Ahora bien, como toda época de cambios, lo nuevo suele ser renovador, aunque al mismo tiempo encierra límites y riesgos. Vengo insistiendo en que el uso indiscriminado y sin regulación de las IA enfrenta la posibilidad del abuso con intenciones negativas respecto de la confidencialidad y el prestigio de personas y empresas tal como podemos ver ha interpretado la reciente regulación de la Unión Europea al respecto.
Con este anuncio de la nueva Inteligencia Artificial de Meta (Facebook, Instagram, WhatsApp, etc.) se diferencia de las otras empresas de IA (OpenAI, Google DeepMind y Anthropic) que cobran por su acceso. El código abierto abre la posibilidad de que más creaciones falsas (deepfake) sean realizadas sin poder rastrear origen. Zuckerberg argumenta que su desarrollo favorece la democratización; los críticos señalan los riesgos.
Finalmente, la innovación puso en debate si la IA debe ser regulada o no. Después de la norma SB1047 en California y el reglamento de la UE 2024/1689 no quedan dudas que la regulación es lo que se viene. Más aún, desde la experiencia de casos de noticias falsas, imágenes, audios y el acceso a información confidencial me declaro ferviente defensor de una regulación que no afecte el potencial uso innovador de la Inteligencia Artificial.
A favor de Meta, es cierto que detrás del potencial control de la IA de código abierto están los intereses de las compañías que no quieren prescindir de vender el acceso a sus plataformas (fees), aunque no es menos cierto que los riesgos están ya palpables y evidentes. Ya sabemos que un ataque al prestigio de alguien con IA es un hecho que solo necesita tener suerte una vez, pero la defensa necesita tener suerte todas las veces. Es igual a un virus, que puede propagarse y matar en cuestión de días, mientras que implementar un tratamiento puede llevar años.
Por lo tanto, todas las regulaciones que obliguen a las empresas a tomar la responsabilidad de limitar el uso indebido de la Inteligencia Artificial, para mí, debe ser bienvenido. Zuckerberg admite que la tecnología de código abierto en Inteligencia Artificial es fácilmente robada por actores malintencionados, la solución que parece proponer es dársela gratis.
Por otro lado, estamos viendo que la IA llegó para cambiar el mundo y aún no sabemos exactamente qué consecuencias tendrá sobre el futuro de nuestras vidas. Algunos usos que la incluyen empiezan a desplazar puestos de trabajos, más que nada en sectores creativos que hasta ahora eran lugares de difícil reemplazo de la capacidad humana de trabajo. Fotografía, respuestas automáticas de servicios, educación, identificación biométrica, programación, y potencialmente transporte público son las que están más en evidencia.
La reproducción de imágenes y voz se hacen muy difícil de identificar si es falsa o verdadera, por lo cual la regulación de la Unión Europea (UE) sienta las bases para seguir avanzando para lograr una IA fiable y segura. El reglamento destaca la protección de las personas en relación con el tratamiento de datos personales que restringen el uso de sistemas de IA como en el caso de la identificación biométrica. Su preocupación se focaliza en la aplicación de manera remota, aunque sea aplicado dentro de la jurisdicción de la UE. Especial énfasis pone la reglamentación en que se ajuste el Derecho ya constituido y que armonice especialmente con los derechos tendientes a la protección de datos, protección de los consumidores, derechos fundamentales, empleo, protección de los trabajadores y seguridad de los productos.
El riesgo más evidente es proteger la vida privada y la confidencialidad de las comunicaciones, y la preocupación respecto a las condiciones para el almacenamiento de datos personales. Falta ver cómo esta nueva normativa se aplica de manera concreta, pero desde ya, significa un avance en la identificación de potenciales riesgos y el establecimiento de límites que resguarden los derechos de las personas.
Por un lado, están quienes están en contra de la reglamentación de la IA y por el otro quienes están a favor. Un análisis en detalle de este debate en Argentina merecería un tratamiento de carácter de urgencia. Esperemos que se logre.
(*) Matías Nahón: Consultor y referente en investigación y prevención de fraude corporativo, autor del libro “El fraude en la era digital”.