yonorte En menos de una década, las computadoras se han vuelto extremadamente buenas para diagnosticar enfermedades, traducir idiomas y transcribir el habla. Pueden superar a los humanos en juegos de estrategia complicados, crear imágenes fotorrealistas y sugerir respuestas útiles a sus correos electrónicos.
Esta historia es parte de nuestro Marzo / abril 2021 problema
Ver el resto del tema
Suscribir
Sin embargo, a pesar de estos logros impresionantes, la inteligencia artificial tiene flagrantes debilidades.
Los sistemas de aprendizaje automático pueden ser engañados o confundidos por situaciones que no han visto antes. Un auto sin conductor se desconcierta por un escenario que un conductor humano podría manejar fácilmente. Un sistema de IA entrenado laboriosamente para llevar a cabo una tarea (identificar gatos, por ejemplo) tiene que ser enseñado nuevamente para hacer otra cosa (identificar perros). En el proceso, es probable que pierda algo de la experiencia que tenía en la tarea original. Los informáticos llaman a este problema "olvido catastrófico".
Estas deficiencias tienen algo en común: existen porque los sistemas de inteligencia artificial no entienden la causalidad. Ven que algunos eventos están asociados con otros eventos, pero no determinan qué cosas hacen que otras cosas sucedan directamente. Es como si supieras que la presencia de nubes hace que la lluvia sea más probable, pero no sabías que las nubes causaban lluvia.
Comprender la causa y el efecto es un gran aspecto de lo que llamamos sentido común, y es un área en la que los sistemas de IA de hoy en día "no tienen idea", dice Elias Bareinboim. Él debe saber: como director del nuevo Laboratorio de Inteligencia Artificial Causal en la Universidad de Columbia, está a la vanguardia de los esfuerzos para solucionar este problema.
Su idea es infundir la investigación de inteligencia artificial con ideas de la ciencia relativamente nueva de la causalidad, un campo conformado en gran medida por Judea Pearl, una académica ganadora del Premio Turing que considera a Bareinboim su protegido.
Como Bareinboim y Pearl lo describen, la capacidad de AI para detectar correlaciones, por ejemplo, que las nubes hacen que la lluvia sea más probable, es simplemente el nivel más simple de razonamiento causal. Es lo suficientemente bueno como para haber impulsado el auge de la técnica de IA conocida como aprendizaje profundo en la última década. Dada una gran cantidad de datos sobre situaciones familiares, este método puede conducir a muy buenas predicciones. Una computadora puede calcular la probabilidad de que un paciente con ciertos síntomas tenga una determinada enfermedad, porque ha aprendido con qué frecuencia miles o incluso millones de otras personas con los mismos síntomas tenían esa enfermedad.
Pero hay un consenso creciente de que el progreso en la IA se detendrá si las computadoras no mejoran en la lucha contra la causalidad. Si las máquinas pudieran comprender que ciertas cosas conducen a otras cosas, no tendrían que aprender todo de nuevo todo el tiempo: podrían tomar lo que habían aprendido en un dominio y aplicarlo a otro. Y si las máquinas pudieran usar el sentido común, podríamos confiar más en ellas para que tomen medidas por su cuenta, sabiendo que no es probable que cometan errores tontos.
La IA de hoy solo tiene una capacidad limitada para inferir lo que resultará de una acción determinada. En el aprendizaje por refuerzo, una técnica que ha permitido que las máquinas dominen juegos como el ajedrez y el Go, un sistema utiliza una extensa prueba y error para discernir qué movimientos esencialmente harán que ganen. Pero este enfoque no funciona en entornos desordenados en el mundo real. Ni siquiera deja una máquina con Una comprensión general de cómo podría jugar otros juegos.
Un nivel aún mayor de pensamiento causal sería la capacidad de razonar sobre por qué sucedieron las cosas y hacer preguntas de "qué pasaría si". Un paciente muere mientras está en un ensayo clínico; ¿Fue culpa de la medicina experimental u otra cosa? Los puntajes de las pruebas escolares están disminuyendo; ¿Qué cambios de política los mejorarían más? Este tipo de razonamiento va mucho más allá de la capacidad actual de la inteligencia artificial.
Realizando milagros
El sueño de dotar a las computadoras de un razonamiento causal llevó a Bareinboim de Brasil a los Estados Unidos en 2008, después de completar una maestría en informática en la Universidad Federal de Río de Janeiro. Aprovechó la oportunidad de estudiar con Judea Pearl, una científica informática y estadística en la UCLA. Pearl, de 83 años, es un gigante.el gigante, de inferencia causal, y su carrera ayuda a ilustrar por qué es difícil crear IA que entienda la causalidad.
Incluso los científicos bien entrenados pueden interpretar erróneamente las correlaciones como signos de causalidad, o errar en la dirección opuesta, dudando en llamar la causalidad incluso cuando está justificada. En la década de 1950, por ejemplo, algunos estadísticos prominentes enturbiaron las aguas en torno a si el tabaco causaba cáncer. Argumentaron que sin un experimento que asignara aleatoriamente a las personas a ser fumadores o no fumadores, nadie podría descartar la posibilidad de que algo desconocido, el estrés, tal vez, o algún gen, causara que las personas fumen y tengan cáncer de pulmón.
Finalmente, el hecho de que fumar causa cáncer se estableció definitivamente, pero no fue necesario por tanto tiempo. Desde entonces, Pearl y otros estadísticos han ideado un enfoque matemático para identificar qué hechos serían necesarios para respaldar una afirmación causal. El método de Pearl muestra que, dada la prevalencia del tabaquismo y el cáncer de pulmón, un factor independiente que cause ambos sería extremadamente improbable.
Por el contrario, las fórmulas de Pearl también ayudan a identificar cuándo las correlaciones no pueden usarse para determinar la causalidad. Bernhard Schölkopf, que investiga técnicas de IA causal como director del Instituto Max Planck de Sistemas Inteligentes de Alemania, señala que puede predecir la tasa de natalidad de un país si conoce su población de cigüeñas. Eso no se debe a que las cigüeñas entreguen a los bebés o porque los bebés atraen a las cigüeñas, sino probablemente porque el desarrollo económico conduce a más bebés y más cigüeñas. Pearl ha ayudado a los estadísticos y científicos informáticos a atacar estos problemas, dice Schölkopf.
El trabajo de Pearl también ha llevado al desarrollo de redes bayesianas causales, un software que analiza grandes cantidades de datos para detectar qué variables parecen tener la mayor influencia en otras variables. Por ejemplo, GNS Healthcare, una compañía en Cambridge, Massachusetts, utiliza estas técnicas para asesorar a los investigadores sobre experimentos que parecen prometedores.
En un proyecto, GNS trabajó con investigadores que estudian el mieloma múltiple, un tipo de cáncer de sangre. Los investigadores querían saber por qué algunos pacientes con la enfermedad viven más que otros después de recibir trasplantes de células madre, una forma común de tratamiento. El software revolvió datos con 30,000 variables y señaló algunas que parecían ser especialmente causales. Los bioestadísticos y expertos en la enfermedad se centraron en una en particular: el nivel de una determinada proteína en los cuerpos de los pacientes. Luego, los investigadores podrían realizar un ensayo clínico dirigido para ver si los pacientes con la proteína realmente se beneficiaron más del tratamiento. "Es mucho más rápido que hurgar aquí y allá en el laboratorio", dice la cofundadora de GNS, Iya Khalil.
No obstante, las mejoras que Pearl y otros académicos han logrado en la teoría causal aún no han avanzado mucho en el aprendizaje profundo, que identifica las correlaciones sin preocuparse demasiado por la causalidad. Bareinboim está trabajando para dar el siguiente paso: hacer que las computadoras sean herramientas más útiles para las exploraciones causales humanas.
Uno de sus sistemas, que todavía está en beta, puede ayudar a los científicos a determinar si tienen datos suficientes para responder una pregunta causal. Richard McElreath, antropólogo del Instituto Max Planck de Antropología Evolutiva, está utilizando el software para guiar la investigación sobre por qué los humanos pasan por la menopausia (somos los únicos simios que lo hacen).
La hipótesis es que la disminución de la fertilidad en las mujeres mayores benefició a las primeras sociedades humanas porque las mujeres que se esforzaron más por cuidar a sus nietos finalmente tuvieron más descendientes. Pero, ¿qué evidencia podría existir hoy para respaldar la afirmación de que a los niños les va mejor con los abuelos? Los antropólogos no pueden simplemente comparar los resultados educativos o médicos de los niños que han vivido con los abuelos y los que no. Hay lo que los estadísticos llaman factores de confusión: las abuelas podrían ser más propensas a vivir con los nietos que necesitan más ayuda. El software de Bareinboim puede ayudar a McElreath a discernir qué estudios sobre niños que crecieron con sus abuelos están menos plagados de factores de confusión y podrían ser valiosos para responder a su pregunta causal. "Es un gran paso adelante", dice McElreath.
La ultima milla
siareinboim habla rápido y a menudo hace gestos con las dos manos en el aire, como si tratara de equilibrar los dos lados de una ecuación mental. Fue a mediados del semestre cuando lo visité en Columbia en octubre, pero parecía que apenas se había mudado a su oficina, casi nada en las paredes, sin libros en los estantes, solo una elegante computadora Mac y una pizarra blanca tan densa con ecuaciones y diagramas que parecía un detalle de una caricatura sobre un profesor loco.
Hizo caso omiso del estado provisional de la sala, diciendo que había estado muy ocupado dando charlas sobre ambos lados de la revolución causal. Bareinboim cree que un trabajo como este ofrece la oportunidad no solo de incorporar el pensamiento causal en las máquinas, sino también de mejorarlo en los humanos.
Hacer que la gente piense más cuidadosamente sobre la causalidad no es necesariamente mucho más fácil que enseñarla a las máquinas, dice. Los investigadores en una amplia gama de disciplinas, desde la biología molecular hasta las políticas públicas, a veces se contentan con descubrir correlaciones que en realidad no están enraizadas en relaciones causales. Por ejemplo, algunos estudios sugieren que beber alcohol lo matará temprano, mientras que otros indican que el consumo moderado es bueno e incluso beneficioso, y aún otras investigaciones han encontrado que los grandes bebedores sobreviven a los no bebedores. Este fenómeno, conocido como la "crisis de reproducibilidad", surge no solo en medicina y nutrición sino también en psicología y economía. "Se puede ver la fragilidad de todas estas inferencias", dice Bareinboim. "Estamos cambiando los resultados cada dos años".
Argumenta que cualquiera que pregunte "qué pasaría si", investigadores médicos que realizan ensayos clínicos, científicos sociales que desarrollan programas piloto, incluso editores web que preparan pruebas A / B, debería comenzar no solo reuniendo datos, sino también utilizando la lógica y el software causal de Pearl como el de Bareinboim para determinar si los datos disponibles podrían responder a una hipótesis causal. Eventualmente, él imagina que esto conducirá a un software de "científico automatizado": un ser humano podría imaginar una pregunta causal a seguir, y el software combinaría la teoría de inferencia causal con técnicas de aprendizaje automático para descartar experimentos que no responderían la pregunta. Eso podría salvar a los científicos de una gran cantidad de callejones sin salida costosos.
Bareinboim describió esta visión mientras estábamos sentados en el vestíbulo de la Sloan School of Management del MIT, después de una charla que dio el otoño pasado. "Tenemos un edificio aquí en el MIT con, no sé, 200 personas", dijo. ¿Cómo deciden esos científicos sociales, o cualquier otro científico en cualquier lugar, qué experimentos realizar y qué puntos de datos recopilar? Siguiendo su intuición: "Están tratando de ver a dónde conducirán las cosas, en función de su comprensión actual".
Es un enfoque inherentemente limitado, dijo, porque los científicos humanos que diseñan un experimento solo pueden considerar un puñado de variables en sus mentes a la vez. Una computadora, por otro lado, puede ver la interacción de cientos o miles de variables. Codificado con "los principios básicos" del cálculo causal de Pearl y capaz de calcular lo que podría suceder con nuevos conjuntos de variables, un científico automatizado podría sugerir exactamente en qué experimentos deberían dedicar su tiempo los investigadores humanos. Quizás alguna política pública que se ha demostrado que funciona solo en Texas podría hacerse funcionar en California si se apreciaran mejor algunos factores causalmente relevantes. Los científicos ya no estarían "haciendo experimentos en la oscuridad", dijo Bareinboim.
Tampoco cree que esté tan lejos: "Esta es la última milla antes de la victoria".
¿Y si?
Fterminar esa milla probablemente requerirá técnicas que recién comienzan a desarrollarse. Por ejemplo, Yoshua Bengio, un científico de la computación de la Universidad de Montreal que compartió el Premio Turing 2018 por su trabajo en el aprendizaje profundo, está tratando de hacer que las redes neuronales, el software en el corazón del aprendizaje profundo, hagan "meta-aprendizaje" y notar las causas de las cosas.
Tal como están las cosas ahora, si quisieras una red neuronal para detectar cuándo la gente está bailando, le mostrarías muchas, muchas imágenes de bailarines. Si quisieras que identificara cuándo las personas están corriendo, mostrarías muchas, muchas imágenes de corredores. El sistema aprendería a distinguir a los corredores de los bailarines mediante la identificación de características que tienden a ser diferentes en las imágenes, como las posiciones de las manos y los brazos de una persona. Pero Bengio señala que el conocimiento fundamental sobre el mundo se puede obtener analizando las cosas que son similares o "invariantes" en los conjuntos de datos. Tal vez una red neuronal podría aprender que los movimientos de las piernas causan físicamente tanto correr como bailar. Quizás después de ver estos ejemplos y muchos otros que muestran a las personas a solo unos metros del suelo, una máquina eventualmente entendería algo sobre la gravedad y cómo limita el movimiento humano. Con el tiempo, con suficiente metaaprendizaje sobre variables que son consistentes en los conjuntos de datos, una computadora podría obtener conocimiento causal que sería reutilizable en muchos dominios.
Por su parte, Pearl dice que la IA no puede ser realmente inteligente hasta que tenga una comprensión amplia de causa y efecto. Aunque el razonamiento causal no sería suficiente para una inteligencia general artificial, es necesario, dice, porque permitiría la introspección que está en el núcleo de la cognición. Las preguntas de "qué pasaría si" son los componentes básicos de la ciencia, de las actitudes morales, del libre albedrío, de la conciencia ", me dijo Pearl.
No puede atraer a Pearl para predecir cuánto tiempo les tomará a las computadoras obtener poderosas habilidades de razonamiento causal. "No soy futurista", dice. Pero, en cualquier caso, cree que el primer movimiento debería ser desarrollar herramientas de aprendizaje automático que combinen datos con el conocimiento científico disponible: "Tenemos mucho conocimiento que reside en el cráneo humano que no se utiliza".
Brian Bergstein, ex editor de MIT Technology Review, es editor adjunto de opinión en el Boston Globe.