Tom Dietterich, padre del ‘machine learning’: «El Data in Motion se moverá en lugar de nosotros»

El profesor emérito de informática en la Universidad Estatal de Oregon desvela cuál son a su juicio los dos grandes hitos de la inteligencia artificial en los últimos años y repasa, en conversación con el analista de innovación Eugenio Mallol, la década que se avecina para la IA y el impacto que tendrá integrar el tiempo real en el big data
5 de agosto de 2022 | Compartir: Compartir en twitter Compartir en LinkedIn
Tom Dietterich, padre del ‘machine learning’: «El Data in Motion se moverá en lugar de nosotros»
El analista de innovación Eugenio Mallol y el profesor Tom Dietterich en la Universidad Politécnica de Valencia.

Eugenio Mallol.-Han pasado siete años desde la última conversación contigo, dime las cosas más importantes que han pasado desde entonces desde tu punto de vista. Hay mucho ruido, anuncios espectaculares, pero debemos distinguir qué cosas son las realmente trascendentales.

Tom Dietterich.-Es difícil elegir un avance. El resultado que más me ha impresionado es el programa AlphaFold de DeepMind, porque ahora pueden tomar la secuencia de proteínas, que es muy fácil para nosotros medir, predecir la estructura y proporcionarnos grandes revelaciones acerca de su función. Eso será revolucionario para la medicina, la biología básica de las células, nos permitirá entender estructuras complejas y los mecanismos que permiten a las moléculas entrar en los núcleos. Ese es el avance más poderoso, el sistema AlphaFold. Pero no podemos dejar de citar los desarrollos en traducción del lenguaje y en habla en tiempo real, el trabajo de Baidu, Google o Microsoft. Ese fue un sueño de la inteligencia artificial (IA) antes incluso de la existencia de los ordenadores, casi un asunto de ciencia ficción. Como muchas de las cosas que están viniendo de la mano de la IA no es perfecto, todavía tiene muchos defectos, pero es usable y útil y ya mismo está teniendo un impacto de miles de millones de dólares en los negocios internacionales, al reducir las barreras para que la gente trabaje junta.

Eugenio Mallol.-El presidente de la Unión Química Internacional (IUPAC), Javier García, me comentaba que cuando era estudiante se decía que lo que acaba de conseguir AphaFold era sencillamente imposible.

Tom Dietterich.-No es puramente una aproximación data driven, el gran éxito reside en la capacidad de combinar el conocimiento de la ciencia subyacente, ya sea Física o Química, con big data. Sin las decenas de miles de proteínas cuyas estructuras conocemos no se habría podido conseguir. En el caso del desarrollo de potenciales fármacos, la habilidad para diseñar rápidamente nuevas moléculas en el ámbito de la ciencia de materiales está relacionada con la combinación del conocimiento que tenemos en química y biología. El sistema tiene la capacidad de optimizar la forma y la estructura de las moléculas para obtener buenos candidatos a fármaco.

«En los descubrimientos cientíticos necesitas ya combinar las capacidades estadíscias del big data con las limitaciones asociadas a la física, la química y la biología»

Eugenio Mallol.-La conclusión de Javier García es que muchos los descubrimientos científicos en la era de la IA deberán atribuirse no solo a los investigadores de ciencia básica, sino también a los informáticos.

Tom Dietterich.-Desde luego se requiere una mezcla. Serían los científicos en cada área, los químicos, los físicos, los que deberían adaptar e impulsar la tecnología de la ciencia de computación. El equipo perfecto debería incluir a ingenieros de máquinas y expertos en conseguir que esos procesadores GPU computen de forma eficiente. Necesitas un grupo transversal y multidisciplinar, combinar las capacidades estadísticas del big data con las limitaciones asociadas a la física, la química o la biología. Ahora tenemos esa área con redes informadas físicamente a las que otra red puede inocular su colección de datos, pero a cambio tendrá que hacer una contribución en energía, en impulso, en masa crítica, cualquiera que sean las condiciones. Especulo con que los avances en inteligencia artificial en los ámbitos no científicos necesitarán también una cierta combinación de conocimientos y limitaciones, por un lado, y de datos estadísticos, por otro. En cuanto a la otra área que centra nuestra atención, el potencial de los grandes modelos lingüísticos, en los que se está entrenando el lenguaje y la visión e, incluso ahora, en el caso de los robots, lenguaje, visión y manipulación por contacto, uno de los problemas es que son bastante fluidos generando frases preciosas, que no son necesariamente sensibles. Combinan frases y trozos de texto en una historia suave bonita, pero no hay ningún control sobre lo que están haciendo. La capacidad estadística de los sistemas les sirve para generar una continuación plausible de sus frases, pero pienso que es también una especie de superego freudiano que permite que lo que dicen tenga sentido, que sea útil para la tarea y éticamente aceptable teniendo en cuenta las limitaciones que intervienen en ese proceso.

Eugenio Mallol.-Hemos visto este conflicto con un exempleado de Google que asegura haber encontrado conciencia en la máquina.

Tom Dietterich.-Es fácil enloquecer con este poder de la estadística en estos sistemas, porque están entrenados para imitar a la gente y son bastante buenos haciéndolo. Puedes preguntar a estos sistemas: “¿Cómo te sentirías si tu hermana muere en un accidente de coche?” Y como han leído alguna historia al respecto te responderán: “Me sentiré devastado y lloraré”. Pero el modelo lingüístico no sabe lo que significa estar devastado y llorar. Suelo hacer la analogía de que yo podría programar fácilmente tu smartphone para que si cae al suelo grite: “¡aaaaahhhh!” (Tom grita en la entrevista, tal cual), pero no está sintiendo dolor. Puedes enloquecer, pero no hay nada.

Eugenio Mallol.-En cualquier caso, sería conveniente en el futuro diseñar sistemas que nos adviertan de si estamos hablando con una persona o una máquina.

Tom Dietterich.-Absolutamente. Llevo años diciendo que necesitamos que se nos revele si estamos hablando con una persona real, que es éticamente responsable de lo que dice, o con un modelo informático, en cuyo caso tendré que dirigirme a la empresa o al operario, no al software.

Eugenio Mallol.-Cuál es tu solución.

Tom Dietterich.-Necesitamos regulación que lo establezca y una de las vías para conseguirlo podría ser darte la seguridad, cuando estás interactuando con una voz sensibilizada, de que está hecha deliberadamente por algo no humano. Hay muchas formas para hacerlo. Es particularmente preocupante porque se está demostrando la posibilidad de clonar tu voz con una pequeña muestra de tu habla y puedes imaginar que los criminales comenzarán a simular llamadas de tu mujer que no son ella.

«Tendrán que darte la seguridad, cuando estás interactuando con una voz sensibilizada, de que está hecha deliberadamente por algo no humano»

Eugenio Mallol.-El asistente Alexa, de Amazon, puede incorporar la voz de cualquiera, aunque esté muerto, a partir de una muestra de apenas un minuto de audio.

Tom Dietterich.-Eso es una locura.

Eugenio Mallol.-Traslademos todas estas reflexiones al entorno industrial. Las empresas se están preguntando dónde pueden obtener valor con los gemelos digitales.

Tom Dietterich.-Estamos todavía a varios años vista de sistemas que sean capaces de escucharte en una conversación con un objetivo. Si observas los chatbots que intervienen en servicios al cliente, que están en todos sitios, son todavía terribles. Grandes compañías están tratando de gestionar esos diálogos en los que hay un objetivo conversacional, en los que tengo que entender tu problema, te estás quejando y tengo que ser capaz de hacer algo al respecto, quizás gestionar el hecho de que puedas estar enfadado o frustrado. Hay muchos aspectos éticos relacionados con ello, incluso si es gente la que está prestando ese servicio al cliente tiene que pensar en cómo hacerlo de forma respetuosa. Podemos construir un habla fluida que puedas reconocer como la de un amigo o la de un ser humano, podemos incorporar además vídeo que te haga pensar que te está hablando una persona real, pero todavía no seremos capaces de mantener una conversación hasta que gestionemos el estado del diálogo, de qué trata la conversación, cuáles son los siguientes pasos. Creo que podría estar a nuestro alcance en unos pocos años y resultar fácil de utilizar para pequeñas y medianas empresas, pero la realidad es que desde que se empieza a tener la tecnología en un estado inicial hasta que alcanza la madurez suelen pasar 20 años, de modo que al menos faltan cinco años, quizás tarde 10 años.

Eugenio Mallol.-Esta visión se puede llevar quizás más fácilmente a nuestra relación con las máquinas que ejecutan tareas físicas, al ámbito del proceso de producción industrial.

Tom Dietterich.-Acabo de venir de un curso que mi compañía, BigML, acaba de dar en Países Bajos. Hemos podido ver una gran aplicación en Mercedes Benz. En el montaje de los automóviles, usan una especie de enganches y nosotros somos capaces de, en tiempo real, detectar si están ensamblados de forma inusual, quizás porque están defectuosos. Inmediatamente, los ingenieros sacan el vehículo de la cadena y lo llevan a un espacio para chequearlo, repararlo si es necesario y devolverlo a la cadena. Pero además podemos obtener un feedback acerca de lo que los ingenieros han encontrado: ¿fue una falsa alarma y el enganche está bien? Si hemos encontrado un problema, ¿de qué clase es? Se trata de cerrar el feedback entre una detección normal en el equipo de fabricación y un problema de producción mucho mayor. ¿Está esa máquina cerca de estropearse, hay que cambiar algo en la cadena de suministro? Serás capaz no sólo de detectar lo que está sucediendo en tiempo real, sino también de entender cuáles son las causas. Esta fabricación inteligente depende, por supuesto, de que la empresa haya llevado a cabo su transformación digital. La industria 4.0 debe alimentar las bases de datos con información en tiempo real de cada máquina y planta de producción. No sólo para poner los datos en la base de datos, sino porque el software de inteligencia artificial puede escuchar esos datos que están fluyendo e inmediatamente producir conclusiones y resolver los problemas tecnológicos y convertirlo en acción inmediatamente en la planta de la fábrica.

Eugenio Mallol.-Y tomar decisiones en el Edge.

Tom Dietterich.-Es realmente impresionante lo que Mercedes Benz y muchas otras compañías son capaces de hacer.

«Tenemos que pensar cómo la tecnología puede impulsar a organizaciones, sociedades y culturas, no sólo a un robot o a una persona individual»

Eugenio Mallol.-En cuanto a nuestra relación con las máquinas en el futuro, la estrategia no debe consistir en pensar en las personas por un lado, a las que hay que potenciar con formación, y en las máquinas por otro, a las que impulsamos con inteligencia artificial. Se debe ser hacer palanca de la unión persona-máquina.

Tom Dietterich.-Sí, exacto. En la cultura de la inteligencia artificial, en la cultura occidental en general, rechazamos la idea de un modelo que aniquila a la persona, que la va a sustituir por completo. La oportunidad real consiste en hacer que la gente sea más efectiva, podemos darle superherramientas y superpoderes. Uno de los objetivos debe ser empoderar a los superingenieros para que sean capaces de construir esas herramientas adicionales por sí mismos, usando tecnologías de IA accesibles. Es el tipo de cosas que nos gusta hacer y que pensamos que puede funcionar en todas las plantas de Mercedes Benz del mundo. Al mismo tiempo, una de las cuestiones relacionadas con los ordenadores y la computación tiene que ver con que las soluciones se pueden escalar en las grandes organizaciones. Por supuesto, la invención de las corporaciones modernas y la coordinación en algunos casos de miles de personas nos permite obtener una enorme productividad en fabricación. La cultura es precisamente eso, aquello que coordina a millones de personas que pueden vivir juntas y tener una buena vida. Tenemos que pensar en cómo esta tecnología puede impulsar a organizaciones, sociedades y culturas no sólo a un robot o una persona individual.

Eugenio Mallol.-Una vez incorporadas las tecnologías, el siguiente salto en las organizaciones es estratégico.

Tom Dietterich.-Poner en manos de los que toman decisiones la mejor información es lo más importante. El movimiento original del big data fue recolectar toda la información de la compañía y ponerlo en una base de datos de forma que los más avanzados científicos de datos lo analicen y nos den insights. Pero ahora vemos que tenemos que incorporar el tiempo real, lo que se llama el Data in Motion: conforme los datos se recolectan podemos dar advertencias (awareness) sobre situaciones a nivel de ingeniero individual, a nivel de fábrica y a nivel de compañía. Todas las disrupciones en la cadena de suministro tienen una escala mucho más amplia que la de un ingeniero individual. Incluso una fábrica es un enorme problema de coordinación. Creemos que los mecanismos del mercado lo resolverán eventualmente, pero ¿podríamos anticiparnos a eso quizás y recuperarnos antes? El Data in Motion se mueve en lugar de nosotros.

Eugenio Mallol.-El metaverso podría desplegarse antes en el ámbito industrial que en el de consumo. Quizás el metaverso industrial venga a complicar aún más todo esto.

Tom Dietterich.-Llevo escuchando presentaciones acerca de la realidad virtual desde hace 30 años y sigo viendo muy pocos casos de uso a día de hoy.

Eugenio Mallol.-Pero el dato en tiempo real lo cambia todo.

Tom Dietterich.-Podría ser que el metaverso llegue antes al entretenimiento y puedo imaginar aplicaciones en el ámbito de la educación. Sería maravilloso visitar un yacimiento arqueológico o una ciudad romana. En cuanto a las aplicaciones industriales puedo pensar en realidad aumentada superpuesta a las máquinas, por ejemplo, mostrando información sobre temperatura o seguridad, o que en el proceso de selección de un coche puedas verlo en distintos colores. Pero para reparar o dar awareness en tiempo real creo que tenemos suficiente tecnología. Requiere además de visión artificial, en la industria puedes ubicar cámaras cuya localización es conocida y pueden dar información. Pero todavía no sé dónde ubicar a personas con gafas, donde tiene sentido que estén de forma precisa.

Scroll al inicio
Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos. Contiene enlaces a sitios web de terceros con políticas de privacidad ajenas que podrás aceptar o no cuando accedas a ellos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Más información
Privacidad