Los límites de la IA
2 de Agosto de 2019La opinión de Pablo Wahnon, periodista especializado en Innovación, Tecnología y Negocios
Tras años de silencioso letargo la Inteligencia Artificial despertó y su impacto comenzó a ser una realidad imposible de disimular. Si bien hubo mejoras en los algoritmos, el punto de inflexión se dio más por una maduración de tecnologías que por la aparición de un nuevo Einstein de los datos. No hubo un paradigma científico nuevo. Son las mismas tecnologías basadas en ciencia estadística aburrida que ya existían en los 70 con algunas mejoras que hicieron la diferencia gracias al cloud y a la disponibilidad de capturar todo tipo de datos de formas más eficientes. Una combinación del software y el hardware de nuestra época era lo que faltaba para formar el nido que haga eclosionar a los algoritmos de IA.
Los diferentes sabores del machine learning y redes neuronales hoy pululan en soluciones de todo tipo. Los venture capitalist mueren por encontrar una startup de IA. Los triunfos de la IA se muestran por doquier pero no parecía pasar lo mismo con sus derrotas. Hasta que a IBM, al menos en lo mediático, el mayor precursor global en IA, se le ocurrió intentar correr el riesgo de meterse en un juego cuyas reglas no son tan claras. Y perdió. Pero vayamos al principio.
Las victorias de IBM habían sido claras y cada una había dado comienzo a una nueva era dentro de la IA. El primer batacazo llegó en 1997 cuando IBM Deep Blue derrotó a Kasparov, culminando una línea de IA abierta desde sus inicios en la década del 50 y que ya ofrecía soluciones para el público general desde finales de los 70. En una transición de programas cada vez mas sofisticados se llegó a un match no objeto de polémicas en el cual Kasparov había sido derrotado. El mismo Kasparov a pesar de objetar varias cosas del match se dio cuenta que sólo era cuestion de tiempo y que más fuerza computacional necesariamente lo dejaría fuera del juego.
Los sistemas de IA avanzaron tanto que pronto sistemas instalados en un simple smartphone eran superiores a cualquier jugador humano. Pero la IA siguió evolucionando por un nuevo camino que ya no usaba la experiencia humana sino el aprendizaje automático. Así, el sistema de Google Alpha Go primero derrotó al mejor jugador humano de Go. Poco tiempo después a finales de 2017 sucedió algo notable: el sistema Alpha solo conociendo las reglas del ajedrez, sin tener ningún otro conocimiento adicional más que la experiencia acumulada de jugar contra sí mismo, se enfrentó con stockfish, el sistema de IA más avanzado en ajedrez, muy superior a cualquier jugador viviente, y lo derrotó de forma contundente. La IA empezó a tener varios niveles y el aprendizaje automático alcanzó su momento de gloria independizándose de cualquier experiencia humana anterior como podía ser el conocimientos de aperturas que estaban embebidos en sistemas como stockfish.
Frente a este panorama IBM se decidió por su mayor apuesta: ganarle un debate al mejor especialista en la materia. Ya 2012 había logrado con IBM Watson algo increíble al ganar Jeopardy, un juego donde hay que encontrar la pregunta correcta que mejor se corresponda con la descripción que se revela en el momento. Un juego que tiene ciertos grises y un alto nivel de semántica. Pero donde la velocidad juega un papel importante. IBM compenzó su falta de semántica con su alta velocidad; definió muy bien su estrategia de cuándo y cómo contestar primero. Y ganó las partidas. Pero el caso del debate no era el mismo. Esta criatura era diferente. Si bien las reglas son claras y se pueden parecer a un juego, sea Jeopardy o un ajedrez, no son tan fáciles los resultados ya que estos dependen de convencer al público. O sea es claro de qué se trata el juego pero ya no es tan claro cómo se obtiene la victoria. Empatizar y convencer al público requiere de habilidades más complejas que jugar una partida de ajedrez o responder antes una consigna.
Cuando el juego, sus reglas y los procesos de decisión y de cómo se dan los resultados son claros estamos en las tierras de la IA. Ahí estamos sin límites. La IA puede llegar a lugares que nosotros jamás podremos soñar. Pero muchas de las tierras que habitamos no son esas, y no tenerlo claro puede hacernos entrar en errores cuyas consecuencias ni siquiera sospechamos.
Uno de los problemas más profundos que enfrentamos con la IA es que nos puede dar, como en el caso del ajedrez, el mejor resultado pero es completamente incapaz de explicarnos el porqué. Nuestra capacidad analítica se ve completamente opacada con la IA. No estamos acostumbrados a eso. Incluso lo mismo está pasando en ciencias. Stephen Wolfram muestra en su libro The New Kind of Sciencie que una variedad de cómputo, los autómatas celulares, que se definen por reglas sencillas, pero que al retroalimentar sus resultados producen comportamientos muy complejos pueden explicar fenómenos sin tener leyes, es decir sin conocer el aspecto analítico de la ciencia. Tal fenómeno, por ejemplo el clima, es así y uno podría prededir que es así con un autómata celular pero sin conocer las leyes científicas subyacentes como el caso de la ley de la gravitación.
No poder entender a qué se debe el resultado que nos da la IA es ciertamente un límite que hay que estar dispuesto a franquear. Es la confianza ciega de que la IA ve más que nosotros aunque no nos pueda explicar el porqué que tanto necesitamos.
Pero tanto redes neuronales como machine learning requieren datos, en particular datos limpios. Y en el caso de las redes neuronales muchísimos datos. Además de por supuesto un buen tiempo de entrenamiento. Pero aun teniendo todo hay que entender que la IA requiere que se le defina bien el juego, que sepamos sus reglas y los procesos asociados. El debate de IBM fue toda una lección en este sentido. Al humano, Harish Natarajan, le tocó además la consigna más dificil. Se trataba de convencer a la gente que el Estado no debía destinar fondos públicos a la educación del jardín de infantes, casi un disparate. Algo indefedible. Es muy fácil ya no solo para IBM sino para cualquiera buscar datos en la web y mostrar desde muchos puntos de vista la importancia de contar con una educación inicial garantizada por el Estado. Es sólo buscar datos para lo que la gente ya quiere oir. Y además el propio sesgo cognitivo hace que uno ni escuche datos que refuten la propia idea que uno ya tiene. Pero IBM perdió. Y perdió no sólo por la genialidad de Natarajan. Perdió porque la regla de cómo obtener el resultado no estaba escrita. Nadie sabe como convencer a los humanos y cuando alguien lo sabe y logra el ansiado hackeo del cerebro pasa un tiempo y los humanos se resetean y así hemos ido cambiando de reyes y de políticos y sus paradigmas.
O sea IBM habrá seguido un patron general, una regla conocida, por ej presentar de forma contundente los datos a favor y en contra. Pero el programa no puede encontrar la regla que no existe, no puede inventar una regla a condición de que eso ya fuera lo que buscara. Si las reglas de juego no están claras la inventiva humana, como se vio en el debate prevalece. Porque por ahí en este caso no hay que buscar tantos datos. Por ahí alcanza con dos o tres palabras. Por ahi alcanza sólo con un ejemplo. Muchas veces simplemente no sabemos qué es lo que hay que hacer antes de que efectivamente nos encontremos frente al problema. Nosotros jugamos a juegos que muchas veces no conocemos. Son juegos que pueden cambiar de nombre y de reglas a medida que pasan. No son como el ajedrez cuyas leyes no mutan. Porque si hay algo de lo que no podemos deshacernos es del tiempo y su entropía, ese aumento del desorden que padece el universo. No sabemos cómo será el mañana.
Ciertamente hay aspectos automatizables. La luna por ejemplo da vueltas alrededor de la tierra. Pero si lo estudiamos en detalle, la luna se va alejando unos centímetros cada año y llegará el dia que nos abandone y ahí nacerá el caos de lo impredecible. Todos esos juegos que no podemos definir hasta que suceden. Esa reglas que cambian apenas aparecen. Eso que en definitiva es la esencia de la vida misma no pertenece a las tierras del IA. Olvidar, algo justamente contrario a lo que hacen los sistemas de IA, es una condición, como dice mi amigo Alejandro Malpartida, para la inteligencia humana. Porque en el olvido está nuestro acondicionamiento al nuevo entorno. Delegar entonces la inteligencia en sistemas de IA de lo automatizable tiene sentido en una organización, pero eso no quiere decir que debamos esclavizarnos ante los sesgos de la IA. Afortunadamente, los impresionantes éxitos de la IA que veremos en los próximos años nos ayudarán a entendernos mejor. Y para mi la conclusión ya esta clara: no somos computables.
(*) Pablo Wahnon: Periodista especializado en Innovación, Tecnología y Negocios. Editor de PartnerSpaces y TEDx Talker