¿Cómo utilizar éticamente la IA? Los nuevos desafíos corporativos
27 de Octubre de 2023Escribe Gabriel Arango, Head of Technology Latam GlobalLogic, compañìa del Grupo Hitachi y líder en ingeniería digital
El futuro se escribe con inteligencia artificial, pero la tecnología en constante desarrollo genera tanto beneficios como preocupaciones. Es por esto que las compañías deben buscar soluciones que controlen su utilización para brindar servicios más óptimos y éticos. En este sentido, la era digital presenta un potencial sin precedentes debido al surgimiento de nuevas tecnologías que ofrecen eficiencia e innovación a las diversas operaciones dentro de una empresa. De la automatización de tareas repetitivas al análisis de grandes volúmenes de información, la Inteligencia Artificial (IA) es indudablemente la que más aprovechan las industrias para mejorar sus servicios. Sin embargo, el impacto de estos sistemas despierta desafíos, y su creciente implementación, y utilización por parte de la sociedad en general, plantea la necesidad de aplicar ética. Es decir, valores y principios que guíen el desarrollo y uso de la tecnología para asegurar una integración transparente y responsable por parte de todos.
Las herramientas de inteligencia artificial, sobre todo generativa como ChatGPT, son tecnologías poderosas y disruptivas que no solo siguen los mismos principios que las demás tecnologías; ellas también deben abstenerse de ingresar información de propiedad exclusiva como datos de entrada y revisar los datos de salida generados por las herramientas GenAI para mitigar el riesgo de errores y vulnerabilidades de seguridad.
Si bien la propia naturaleza de la inteligencia artificial permite actuar sin una intervención humana directa, sus sistemas son impulsados por una recopilación masiva de información proveniente de individuos. Esto representa retos dentro del ámbito de la ética y la transparencia: por un lado, los datos con los que se entrenan los algoritmos pueden contener sesgos que deriven en resultados discriminatorios; por el otro, los algoritmos pueden ser contaminados por información falsa que puede poner en peligro la privacidad de los usuarios.
Ambos escenarios, en lugar de optimizar el servicio y suscitar la lealtad de las personas, afectan de forma negativa la experiencia de uso y reputación, en este caso, de las empresas. Por este motivo, se va más allá de la investigación y desarrollo de sistemas de inteligencia artificial y se establecen marcos normativos que transparentan cómo se utilizan los datos y se toman decisiones, e instrucciones para combinar lo humano con lo computacional.
De todos modos, las probabilidades de un futuro daño siempre están presentes ya que las herramientas con inteligencia artificial trabajan con los IP de los usuarios, posibilitando una divulgación no autorizada de información propietaria. Es decir, a partir de la interacción con la tecnología se puede filtrar un código de terceros, información confidencial y datos personales de las empresas y sus clientes, causando una violación de la propiedad intelectual y derechos de autor.
Por lo tanto, la transparencia y ética corporativas no solamente consisten en prohibir tanto el ingreso de datos sensibles como la utilización de contenido generado por la IA para el desarrollo de productos sino que también, se deben presentar contratos alineados con los requisitos de seguridad de la información que informen los riesgos, las posibles fugas de propiedad intelectual dentro o fuera del producto, y cosas por el estilo. Es imprescindible obtener el consentimiento explícito por escrito previo del cliente para utilizar estas herramientas.
Con límites desconocidos aún, estas prácticas empresariales resultan importantes para generar confianza en la tecnología y las compañías. El rápido avance podrá dejar obsoletas las normativas, pero de igual manera deben fijarse de forma exhaustiva. En consecuencia, el debate de la ética en herramientas populares como la inteligencia artificial es cada vez más relevante en el mundo digital. Las empresas tienen la tarea de comprender estos sistemas complejos y sus principios éticos para evitar un uso inadecuado. De esta manera demostrarán un compromiso con la transparencia, seguridad y el bienestar de sus clientes que les permitirá destacarse en el mercado.
Sin lugar a dudas la IA, y en particular la rama de IA generativa, va a impactar y revolucionar en gran parte la forma en que desarrollaremos software en el futuro y el lugar de trabajo. Se está pasando de un modelo team-centered a uno AI-centered. Aunque todavía el impacto en las diferentes industrias es incierto, seguramente la aplicación de ética, supervisión y transparencia será positiva para mejorar la experiencia de los usuarios y la calidad de los servicios ofrecidos.
(*) Gabriel Arango: Head of Technology en GlobalLogic Latinoamerica