SciELO - Scientific Electronic Library Online

 
vol.8 número22Emociones y reglas del sentir como impactos culturales de los movimientos socialesA representação dos heróis nacionais mexicanos na obra poética de Castro Alves índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • No hay artículos similaresSimilares en SciELO

Compartir


Inter disciplina

versión On-line ISSN 2448-5705versión impresa ISSN 2395-969X

Inter disciplina vol.8 no.22 Ciudad de México sep./dic. 2020  Epub 15-Ene-2021

 

Entrevista

Entrevista con el Dr. Héctor Zenil

Interview with Dr. Héctor Zenil

Ricardo Mansilla Corona* 

* Investigador del CEIICH, UNAM. Correo electrónico: mansy@unam.mx


El Dr. ZEnil es un académico de amplios intereses interdisciplinarios, se describe a sí mismo como un “científico natural computacional” y de quien Gregory Chaitin ha dicho es un “nuevo tipo de teórico práctico”, parafraseando sin duda el título de la notable obra de S. Wolfram. Se graduó de matemático por la UNAM en 2003, obtuvo en 2006 una maestría en lógica por la Universidad de París I (Panthéon- Sorbonne). Más adelante, se recibió de doctor en ciencias de la computación teórica por la Universidad de Lille, en 2011, y en 2015, obtuvo el título de doctor en lógica, filosofía y epistemología de nuevo en la Universidad de París I (Panthéon-Sorbonne), con máximos honores y felicitaciones del jurado.

Ha sido investigador asociado en el Laboratorio de Teoría del Comportamiento y la Evolución del Departamento de Informática de la Universidad de Sheffield en el Reino Unido, investigador titular en el grupo de biología estructural del Departamento de Informática de la Universidad de Oxford y director del laboratorio Oxford Immune Algorithmics.

Ha participado en la dirección del Laboratorio de Dinámica Algorítmica en el Instituto Karolinska (la institución que otorga el Premio Nobel de Medicina o Fisiología) donde ha trabajado junto con científicos experimentales como biólogos moleculares, inmunólogos, oncólogos, toxicólogos y otros matemáticos para comprender y estudiar los primeros principios de los sistemas vivos. Dirigió el Algorithmic Nature Group, laboratorio que inició la Calculadora de complejidad algorítmica en línea y el Proyecto de percepción y generación de aleatoriedad humana (que desencadenó una amplia cobertura mediática), una especie de prueba de Turing inversa que involucró a casi 3,400 mentes humanas.

Es editor de la revista científica Sistemas Complejos, la primera revista en el campo de la ciencia de la complejidad fundada por Stephen Wolfram en 1987. Es miembro del Consejo Editorial de la revista INTER DISCIPLINA. El Dr. Zenil aceptó esta entrevista a solicitud del editor de esta revista.

Participaste como orador en la conferencia Predictive Analytics World Industry 4.0. Háblanos sobre este evento y tu intervención en el mismo.

En los últimos años me han invitado a diversos foros, en particular relacionados con el uso de la inteligencia artificial y el aprendizaje de máquinas (Machine Learning) aplicado a la biología y a la medicina. En esta ocasión, me invitaron como ponente magistral junto con otros personajes, como la directora de datos de Roche, a Predictive Analytics World Industry 4.0 (PAW 4.0). El evento se iba a realizar en Múnich, pero terminó siendo en línea debido a la pandemia.

Curiosamente, hace ya casi un año impartí otra conferencia magistral presencial en las oficinas principales de BMW en Múnich, frente a un auditorio con casi 5 mil personas, incluido todo el departamento de Tecnologías de la Información de BMW. La grabación de la charla, hecha por los organizadores, está disponible en línea y es muy parecida a la que ofrecí en PAW (¡sin tener que pagar 400 euros!) (https://www.youtube.com/watch?v=obbkeKaS4LE). Desgraciadamente, el audio es muy malo.

¿Cuáles prevés que sean las direcciones fundamentales donde en el corto plazo la inteligencia artificial (IA) causará un impacto decisivo en la medicina y los cuidados de la salud?

Hay varias direcciones en las que la IA está desempeñando un papel, pero aún no tiene un impacto decisivo y se ve menos impresionante de lo que podría. Una de ellas son los bots parlantes de empresas como Babylon para ayudar al NHS (el equivalente del IMSS en el Reino Unido) a atender pacientes en línea. Aunque dichas citas ayudan a liberar recursos y evitar que los pacientes visiten hospitales o médicos de forma presencial, el impacto ha sido sobre todo superficial. En cuanto a otras promesas, como métodos automatizados para detectar tumores cancerígenos, la mayoría de estas propuestas se han quedado en el papel, debido a publicaciones de estudios académicos exageradas, por lo que ha sido difícil reemplazar las prácticas actuales y no han penetrado en el grueso de la seguridad social. Esto parece ser cierto en todo el mundo, así es que uno de los retos más importantes es cómo pasar de promesas infladas a métodos responsables, para finalmente llegar a la sustitución de los procedimientos de hoy en día, para hacerlos económicamente autosustentables y convertir su adopción en una necesidad en la que no sea obligatoria la intervención de sus creadores.

Los registros médicos acumulan una enorme cantidad de información a la cual se le ha dado recientemente un uso transversal, a través de técnicas de Big Data. Esto plantea un serio desafío referido a la privacidad de tales datos. ¿Cuál crees que sea la forma óptima de manejar ese conflicto?

Hay muchos ángulos en este reto y sería ingenuo de mi parte creer que tengo una respuesta definitiva. Sin embargo, creo que el primer desafío es entender que no todo es Big Data. Desde mi perspectiva, y la de mi recién fundada empresa para impulsar la inteligencia artificial responsable en medicina, lo más importante de la IA no es el Big Data sino: 1) los modelos que de los datos se pueden inferir, y, 2) los modelos que sustentan y explican los datos relevantes de interés. En realidad, el área del Big Data no se ha dado cuenta de que sigue requiriendo de científicos que interpreten los datos, conjeturen los modelos y elijan el más probable según criterios usualmente ausentes del Big Data. Este es uno de los retos más grandes cuando se usan métodos como el aprendizaje profundo (Deep Learning) y de la mayoría de los métodos estadísticos de aprendizaje automático que son inherentemente oscuros o cajas negras que no codifican un proceso, sino que se sustentan en patrones estadísticos que no tienen una correspondencia uno a uno con una observación causal en el tiempo.

Esto quiere decir que esos métodos no son capaces de codificar los estados de un sistema dinámico y son incapaces de representar una cadena de causa y efecto. Esto para mi laboratorio y empresa es inaceptable, y no es el tipo de IA que deberíamos permitir en la conducción de automóviles o en medicina o cuidados de la salud, aunque parezcan capaces de ello (no lo son en los casos en los que se necesita). Suelo decir que small data matters, porque son los modelos más pequeños los que explican la mayoría de los datos, los que tienden a ser los correctos y a capturar mejor los procesos detrás de los datos, que es lo que al final nos importa o debería importar, y no los datos por los datos.

En la última década ha ido ganando terreno la idea de que en algún momento en el futuro seremos sobrepasados por las computadoras y los algoritmos creados por nosotros mismos. Nick Bostrom, fundador del Future of Humanity Institute en la Universidad de Oxford, publicó en 2014 Superinteligence, por solo citar un ejemplo de la literatura referida a este tema. En lo que atañe a la medicina y los cuidados de la salud este eventual escenario plantea muchas inquietudes e interrogantes. ¿Cuál es tu valoración sobre este asunto?

Precisamente, el problema al que me refiero en el punto anterior tiene que ver con la manera diametralmente opuesta en la que aprenden y funcionan tanto el cerebro humano (que también es una red neuronal, pero jerárquica, cuya arquitectura puede adaptarse sin supervisión) como las redes neuronales artificiales y otros métodos estadísticos de aprendizaje de máquina. Mientras que a las redes neuronales artificiales hay que mostrarles miles de accidentes de auto para que los eviten, el humano no necesita ver ni uno para saberlo. Mientras que a un niño se le puede enseñar el algoritmo para sumar o multiplicar, a una red neuronal artificial hay que mostrarle cada una de las sumas o productos posibles para que tenga una oportunidad de responder correctamente y no tiene la capacidad de aprender un algoritmo. Esa es la clave y en lo que tanto mi laboratorio como mi empresa están innovando: en la combinación ideal de computación simbólica (la que usan las calculadoras) y aprendizaje estadístico para expandir y, sobre todo, aplicar responsablemente la IA en áreas tan críticas como la medicina y los cuidados de la salud. Para mí, el riesgo no es que los algoritmos sean muy inteligentes y dominen el mundo; el problema actual es que son demasiado tontos, solo nos parecen inteligentes porque nos ocultan cómo funcionan.

La aplicación de las herramientas de la inteligencia artificial a la investigación en medicina y los cuidados de la salud es un campo de investigación interdisciplinario sin lugar a duda. Dado el carácter de estos servicios (y también de la investigación en IA) esto implica la interacción entre el sector académico y la iniciativa privada. ¿Cómo crees que debe ser la integración entre estas dos áreas?

Esta integración es crítica, pero hoy en día ambas áreas sufren del mismo problema: de un enamoramiento de la IA actual por las razones incorrectas. La IA actual está dominada por lo que se conoce como aprendizaje de máquina y aprendizaje profundo. Ambas áreas están actualmente fundamentadas en principios básicos de probabilidad y estadística, de los cuales se ha demostrado que están muy limitados para ejecutar tareas que no sean las de clasificar objetos. En este sentido, es sorprendente cuánto se puede hacer con tan poco y cuántos “problemas” se pueden solucionar con métodos de clasificación, como recomendar películas en Netflix o clasificar tumores de mama. El truco de la mayoría de los grupos y empresas ha sido presentar casi todos estos problemas como problemas de clasificación. Sin embargo, los retos más importantes de la ciencia y el humano es entender las causas de fenómenos complejos, como el cáncer. En este sentido, la IA actual no ha podido contribuir excepto cuando se usa como una herramienta de análisis de datos más y, muchas veces, se ha comprobado que sus capacidades sorprendentes se desploman inmediatamente con la menor perturbación al sistema. Mientras no se logre que estos métodos sean suficientemente robustos y puedan aprender algorit0mos, incluso los más básicos, esos métodos van a continuar limitados. Por fortuna, está surgiendo un nuevo tipo de IA y me entusiasma ser parte de ello. Lo que hacemos es combinar conceptos de la teoría algorítmica de la información para realizar lo que llamamos de convolución causal, que permite generar un conjunto de modelos posibles ordenados por su posibilidad de ser el modelo más simple que permite explicar un fenómeno. Los modelos son mecanismos, lo que quiere decir que se pueden comparar con una cadena de causa y efecto observada, descartarse si no corresponde o verificarse si sí lo hacen. La revista Nature produjo, por iniciativa propia y para destacar nuestra investigación, un video para explicar nuestros métodos: https://www.youtube.com/watch?v=rkmz7DAA-t8

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons