Las cuestiones éticas de la inteligencia artificial: librar las batallas correctas
18 de Septiembre de 2023Escribe Patrice Caine, CEO de Thales
¿La inteligencia artificial va a reemplazar al ser humano? ¿Podría volverse contra sus creadores? ¿Representa un peligro para la especie humana?
Éstas son solo algunas de las preguntas que generaron el debate público y sacudieron a los medios de comunicación desde el despliegue masivo de herramientas de IA generativa y las declaraciones sensacionalistas de algunos personajes públicos. Sin embargo, aunque estas especulaciones filosóficas sean interesantes, la mayoría de los expertos coinciden en que son un tanto prematuras.
Es cierto que la inteligencia artificial tiene un enorme potencial. Es una tecnología que va a permitir automatizar un amplio abanico de tareas, crear nuevos servicios y, en definitiva, hacer más eficientes las economías. La IA generativa marca una nueva etapa en esta tendencia subyacente, cuyas múltiples aplicaciones apenas estamos empezando a explorar.
Sin embargo, no debemos perder de vista que, a pesar de sus notables prestaciones, los sistemas de IA son esencialmente máquinas, nada más que algoritmos integrados en procesadores capaces de asimilar grandes cantidades de datos.
Se nos comentó que estas nuevas herramientas serán capaces de superar la prueba de Turing. Probablemente sea cierto, pero ese test -que antes se consideraba capaz de trazar la línea divisoria entre la inteligencia humana y la inteligencia artificial- hace tiempo que dejó de tener un valor real. Estas máquinas son incapaces de inteligencia humana, en el sentido más amplio del término (es decir, que implique sensibilidad, adaptación al contexto, empatía...), reflexividad y conciencia, y probablemente lo serán por mucho tiempo. Uno no puede evitar pensar que quienes imaginan que estas herramientas tendrán pronto esas características se están dejando influir demasiado por la ciencia ficción y por figuras míticas como Prometeo o el gólem, que siempre han ejercido cierta fascinación sobre nosotros.
Si adoptamos un enfoque más práctico, nos damos cuenta de que las cuestiones éticas planteadas por la creciente importancia de la inteligencia artificial no son nada nuevo y que la llegada de ChatGPT y otras herramientas simplemente las ha hecho más apremiantes. Además de la preocupación por el empleo, estas cuestiones se refieren, por una parte, a la discriminación creada o amplificada por la IA y los datos de entrenamiento que utiliza y, por otra, a la propagación de información errónea (ya sea deliberadamente o como resultado de "alucinaciones de la IA"). Sin embargo, estos dos temas preocupan desde hace tiempo a investigadores de algoritmos, legisladores y empresas del sector, que ya comenzaron a aplicar soluciones técnicas y jurídicas para contrarrestar los riesgos.
Veamos, en primer lugar, las soluciones técnicas. Los principios éticos se están incorporando al propio desarrollo de las herramientas de IA. En Thales, desde hace tiempo nos comprometimos a no construir "cajas negras" cuando diseñamos sistemas de inteligencia artificial. Establecimos directrices que garantizan que los sistemas sean transparentes y explicables. También nos esforzamos por minimizar los prejuicios (sobre todo de género y apariencia física) en el diseño de nuestros algoritmos a través de los datos de entrenamiento que utilizamos y la composición de nuestros equipos.
En segundo lugar, las soluciones jurídicas. En este sentido, la Unión Europea logró tomar indiscutiblemente la delantera. La Comisión Europea y el Parlamento Europeo llevan más de dos años trabajando en un proyecto de reglamento destinado a limitar por ley los usos más peligrosos de la inteligencia artificial.
Sin embargo, es también a través de la educación y de un verdadero cambio social como vamos a lograr protegernos de los riesgos inherentes al mal uso de la IA. Juntos debemos alejarnos del tipo de cultura de la inmediatez que floreció con la llegada de la tecnología digital y que probablemente se verá exacerbada por la difusión masiva de estas nuevas herramientas.
Como sabemos, la IA generativa permite producir fácilmente contenidos altamente virales, pero no necesariamente confiables. Existe el riesgo de que amplifique las deficiencias ampliamente reconocidas en el funcionamiento de las redes sociales, sobre todo en su promoción de contenidos cuestionables y divisivos, y en la forma en que provocan reacciones y enfrentamientos instantáneos.
Además, estos sistemas, al acostumbrarnos a obtener respuestas "listas para usar", sin tener que buscar, autentificar o contrastar fuentes, nos vuelven intelectualmente perezosos. Corren el riesgo de agravar la situación al debilitar nuestro pensamiento crítico.
Por tanto, aunque no sería razonable empezar a enarbolar la bandera roja de un peligro existencial para la raza humana, sí es necesario emitir una señal de atención. Hay que buscar fórmulas para dejar atrás esa propensión a la inmediatez que lleva décadas afectando a la democracia y dando lugar a teorías de conspiración.
"Piénselo durante 30 segundos " es el fantástico título de un curso de formación creado por el centro quebequense de educación en medios de comunicación e información. Tomarse el tiempo necesario para contextualizar y evaluar la credibilidad de un contenido, y mantener un diálogo constructivo en lugar de reaccionar inmediatamente, son los pilares de una vida digital sana. Tenemos que asegurarnos de que su enseñanza -tanto en la teoría como en la práctica- sea una prioridad absoluta en los sistemas educativos de todo el mundo.
Si superamos este desafío, por fin podremos aprovechar el tremendo potencial que tiene esta tecnología para colaborar con el avance de la ciencia, la medicina, la productividad y la educación.
(*) Patrice Caine: CEO de Thales