La Inteligencia Artificial al ataque

Escribe Matías Nahon, Consultor y referente en investigación y prevención de fraude corporativo. Director general de Analitix

Una imagen perfecta y un sonido que reproducía la voz de un cliente cometiendo un delito grave fueron el puntapié de una larga disputa legal que continúa hasta hoy día.

Ya hace varios años que muchos venimos advirtiendo sobre el potencial de la Inteligencia Artificial (IA) en un mal uso con intenciones difamatorias e inclusive como soporte en la realización de un fraude. Bueno, esta es la primera vez que intervengo en un caso concreto donde todas esas capacidades parecen haberse puesto al servicio de un ataque al prestigio de alguien.

La fidelidad con que las fotografías de IA crean personas o ambientes teniendo como base la información pública disponible es inaudita. Muchas grandes agencias de campaña publicitaria ya dejaron atrás los costos equipos de exteriores y los modelos top de costo altísimos por un práctico y mucho más barato creador de contenidos en IA.

Algunos creadores han puesto este conocimiento al servicio de la difamación como en este caso. Basados en una fake news de hace aproximadamente diez años publicada en un medio de comunicación de alta difusión, los difamadores crearon supuestas imágenes de un tenor hiper realista que parecían certificar la acusación falsa de aquella falsa noticia ya vieja. Como si eso fuera poco, a los pocos días y basados en un amplio registro de entrevistas públicas los creadores de contenido de IA realizaron un supuesto audio de WhatsApp donde se reproducía la voz que confirmaría el supuesto delito del que se lo acusaba.

La crisis fue inevitable, más aún al difundirse desde unas veinte cuentas de X (ex Twitter) con cierto volumen e interacción, ampliaron el rango de difusión. El rumor no tardó en llegar a algunos medios digitales atentos a las redes sociales que viralizaron aún más el contenido. Y aunque poniendo en duda su veracidad, divulgaba al mismo tiempo las acusaciones que ya se expandían como una mancha de aceite.

Una reacción instantánea fue poner a los abogados al servicio de denunciar esos contenidos, pero como sabemos, la justicia argentina es lenta y el daño al prestigio ya estaba hecho. En ese momento ingresamos a participar para darle soporte de prueba al equipo legal y ayudar a minimizar y contrarrestar los daños. Lo relevante en este caso es la fuerza de verdad que imprime al daño los contenidos realizados con IA que hacen arduo y de larga tarea contrapesarlos.

En estos momentos estamos confeccionando un informe que muestra las fallas y los orígenes de los programas donde se realizaron los contenidos mostrando la absoluta falsedad de los supuestos hechos que, acompañados de una campaña de difusión al público correcto, mostrará el engaño al que se quiso someter a la opinión pública.

Aunque es evidente que no puedo divulgar por confidencialidad el caso, si es importante poner en blanco y negro y en alerta de todos que el peligro de las IA usadas en toda su potencialidad ya están acá en Sudamérica para ser usadas en la difamación de marcas y prestigios. Cuanto más alertas y prevenidos estemos, y tengamos una reacción rápida frente a este tipo de potencial ataque, menor será el riesgo... aunque sea casi imposible evitarlo.

(*) Matías Nahón: Consultor y referente en investigación y prevención de fraude corporativo, autor del libro “El fraude en la era digital”.