Tres elementos clave para impulsar una IA Generativa segura

Escribe Luz Mihanovich, Directora Ejecutiva de Accenture Argentina

Hoy estamos siendo testigos de la revolución de la inteligencia artificial generativa. Gracias a los avances en los modelos de lenguaje grande (LLMs) y otros modelos de base, estamos presenciando un cambio significativo en la capacidad de la IA en múltiples dominios: imágenes, audio, video y texto. Esto permite que las máquinas, por primera vez, sean computacionalmente creativas, generando contenido significativo y valioso bajo demanda. Y el poder, la amplia adaptabilidad y la fácil accesibilidad de esta tecnología significa que todas las empresas, en todas las industrias, están siendo impactadas.

Los líderes empresariales tienen razón en estar emocionados por las oportunidades. Al igual que los empleados, muchos de los cuales ya están usando esta tecnología en su día a día. Sin embargo, ambos grupos deben estar muy atentos a los riesgos en los que pueden estar incurriendo y cómo se pueden minimizar. Las empresas deben comenzar a impulsar hoy una estrategia de seguridad bien planificada y ejecutada. Para esto es fundamental avanzar principalmente en cinco aspectos.

En primer lugar, es necesario que las compañías creen un ambiente seguro de datos. Una de las principales preocupaciones empresariales sobre proporcionar acceso a aplicaciones como ChatGPT es el riesgo de que la propiedad intelectual u otros datos protegidos se filtren fuera de la organización. El riesgo es real. Los empleados que buscan ahorrar tiempo, hacer preguntas, obtener información o simplemente experimentar con la tecnología pueden fácilmente transmitir datos confidenciales. La buena noticia es que, con un poco de esfuerzo técnico inicial, este riesgo se puede minimizar pensando en casos de uso específicos para habilitar el acceso a las aplicaciones de IA generativa mientras se evalúa el riesgo basado en dónde fluyen los datos.

Así también, los sistemas de IA generativa son tan imparciales y valiosos como los datos con los que fueron entrenados. El plagio involuntario, la infracción de derechos de autor, el sesgo y la manipulación deliberada son varios ejemplos obvios de malos datos de entrenamiento. Para generar confianza en la IA, las empresas deben poder identificar y evaluar los riesgos potenciales en los datos utilizados para entrenar los modelos de base, anotando las fuentes de datos y cualquier defecto o sesgo, ya sea accidental o intencional. Existen herramientas y técnicas que las empresas pueden usar para evaluar, medir, monitorear y sintetizar los datos de entrenamiento.

En segundo lugar, la capacitación es fundamental. Muchos empleados están aprendiendo sobre la tecnología de manera independiente a través de canales sociales y los medios de comunicación, dejando espacio para la desinformación. A menudo no tienen forma de saber qué es correcto y qué no. Y el hecho de que puedan acceder a estas aplicaciones a través de sus propios teléfonos inteligentes y computadoras portátiles puede terminar creando un nuevo tipo de "TI en la sombra" e introduciendo nuevas amenazas de ciberseguridad. Por eso, un programa de capacitación para la fuerza laboral es tanto esencial como urgente.

En tercer lugar, es fundamental comprender los riesgos emergentes. La inteligencia artificial generativa no dejará de evolucionar y por eso los líderes de las compañías deben estar siempre atentos a nuevas amenazas y diseñar sistemas de seguridad robustos. Una misión que parte desde los directorios.

La IA generativa representa un verdadero hito en el desarrollo de la IA. Las oportunidades son prácticamente ilimitadas. Pero también hay nuevos riesgos y amenazas. Ante esto, los líderes empresariales necesitan comprender estos riesgos y tomar medidas urgentes para minimizarlos.

(*) Luz Mihanovich: Directora Ejecutiva de Accenture Argentina