De robots reactivos a máquinas inteligentes: los 4 tipos de IA

Pin
Send
Share
Send

La visión común y recurrente de los últimos avances en la investigación de inteligencia artificial es que las máquinas inteligentes y sensibles están en el horizonte. Las máquinas entienden los comandos verbales, distinguen imágenes, conducen automóviles y juegan juegos mejor que nosotros. ¿Cuánto tiempo puede pasar antes de que caminen entre nosotros?

El nuevo informe de la Casa Blanca sobre inteligencia artificial tiene una visión apropiadamente escéptica de ese sueño. Dice que los próximos 20 años probablemente no verán que las máquinas "exhiban inteligencia ampliamente aplicable comparable o superior a la de los humanos", aunque continúa diciendo que en los próximos años, "las máquinas alcanzarán y superarán el rendimiento humano en más y más tareas ". Pero sus suposiciones sobre cómo se desarrollarán esas capacidades omitieron algunos puntos importantes.

Como investigador de IA, admito que fue bueno tener mi propio campo destacado en el más alto nivel del gobierno estadounidense, pero el informe se centró casi exclusivamente en lo que yo llamo "el tipo aburrido de IA". Descartó en media frase mi rama de investigación de IA, sobre cómo la evolución puede ayudar a desarrollar sistemas de IA cada vez mejores, y cómo los modelos computacionales pueden ayudarnos a comprender cómo evolucionó nuestra inteligencia humana.

El informe se centra en lo que podría llamarse herramientas de IA convencionales: aprendizaje automático y aprendizaje profundo. Estos son los tipos de tecnologías que han podido jugar a "¡Peligro!" bueno, y vence a los maestros humanos Go en el juego más complicado jamás inventado. Estos sistemas inteligentes actuales pueden manejar grandes cantidades de datos y hacer cálculos complejos muy rápidamente. Pero carecen de un elemento que será clave para construir las máquinas inteligentes que imaginamos tener en el futuro.

Necesitamos hacer más que enseñar máquinas para aprender. Necesitamos superar los límites que definen los cuatro tipos diferentes de inteligencia artificial, las barreras que separan las máquinas de nosotros y de nosotros.

Tipo I AI: máquinas reactivas

Los tipos más básicos de sistemas de IA son puramente reactivos y no tienen la capacidad de formar recuerdos ni de usar experiencias pasadas para informar las decisiones actuales. Deep Blue, la supercomputadora de ajedrez de IBM, que venció al gran maestro internacional Garry Kasparov a fines de la década de 1990, es el ejemplo perfecto de este tipo de máquina.

Deep Blue puede identificar las piezas en un tablero de ajedrez y saber cómo se mueve cada una. Puede hacer predicciones sobre qué movimientos podrían ser los siguientes para él y su oponente. Y puede elegir los movimientos más óptimos entre las posibilidades.

Pero no tiene ningún concepto del pasado, ni ningún recuerdo de lo que ha sucedido antes. Además de una regla específica de ajedrez que rara vez se usa para no repetir el mismo movimiento tres veces, Deep Blue ignora todo antes del momento presente. Todo lo que hace es mirar las piezas en el tablero de ajedrez tal como están ahora, y elegir entre los próximos movimientos posibles.

Este tipo de inteligencia implica que la computadora percibe el mundo directamente y actúa sobre lo que ve. No se basa en un concepto interno del mundo. En un artículo seminal, el investigador de IA Rodney Brooks argumentó que solo deberíamos construir máquinas como esta. Su razón principal fue que las personas no son muy buenas para programar mundos simulados precisos para que las computadoras los usen, lo que se llama en la beca de inteligencia artificial una "representación" del mundo.

Las máquinas inteligentes actuales por las que nos maravillamos no tienen ese concepto del mundo o tienen uno muy limitado y especializado para sus tareas particulares. La innovación en el diseño de Deep Blue no fue ampliar el rango de posibles películas que la computadora consideró. Por el contrario, los desarrolladores encontraron una forma de reducir su punto de vista, para dejar de perseguir algunos posibles movimientos futuros, en función de cómo calificó su resultado. Sin esta capacidad, Deep Blue habría necesitado ser una computadora aún más poderosa para vencer a Kasparov.

Del mismo modo, AlphaGo de Google, que ha derrotado a los mejores expertos humanos en Go, tampoco puede evaluar todos los posibles movimientos futuros. Su método de análisis es más sofisticado que el de Deep Blue, utilizando una red neuronal para evaluar los desarrollos del juego.

Estos métodos mejoran la capacidad de los sistemas de IA para jugar mejor juegos específicos, pero no se pueden cambiar o aplicar fácilmente a otras situaciones. Estas imaginaciones computarizadas no tienen un concepto del mundo más amplio, lo que significa que no pueden funcionar más allá de las tareas específicas que se les asignan y se dejan engañar fácilmente.

No pueden participar de manera interactiva en el mundo, como imaginamos los sistemas de IA algún día. En cambio, estas máquinas se comportarán exactamente de la misma manera cada vez que se encuentren con la misma situación. Esto puede ser muy bueno para garantizar que un sistema de IA sea confiable: desea que su automóvil autónomo sea un conductor confiable. Pero es malo si queremos que las máquinas realmente se involucren y respondan al mundo. Estos sistemas de IA más simples nunca se aburrirán, ni se interesarán, ni se entristecerán.

Tipo II AI: memoria limitada

Esta clase de Tipo II contiene máquinas que pueden mirar al pasado. Los autos sin conductor ya hacen algo de esto. Por ejemplo, observan la velocidad y dirección de otros autos. Eso no se puede hacer en un solo momento, sino que requiere identificar objetos específicos y monitorearlos a lo largo del tiempo.

Estas observaciones se agregan a las representaciones preprogramadas de los autos sin conductor del mundo, que también incluyen marcas de carriles, semáforos y otros elementos importantes, como curvas en la carretera. Se incluyen cuando el automóvil decide cuándo cambiar de carril, para evitar interrumpir a otro conductor o ser atropellado por un automóvil cercano.

Pero estas simples piezas de información sobre el pasado son solo transitorias. No se guardan como parte de la biblioteca de experiencia del automóvil de la que puede aprender, de la forma en que los conductores humanos compilan la experiencia durante años al volante.

Entonces, ¿cómo podemos construir sistemas de IA que construyan representaciones completas, recordar sus experiencias y aprender a manejar nuevas situaciones? Brooks tenía razón en que es muy difícil hacer esto. Mi propia investigación sobre métodos inspirados en la evolución darwiniana puede comenzar a compensar las deficiencias humanas al permitir que las máquinas construyan sus propias representaciones.

Tipo III AI: teoría de la mente

Podríamos detenernos aquí, y llamar a este punto la división importante entre las máquinas que tenemos y las máquinas que construiremos en el futuro. Sin embargo, es mejor ser más específico para discutir los tipos de representaciones que las máquinas necesitan formar y de qué deben tratarse.

Las máquinas en la siguiente clase, más avanzada, no solo forman representaciones sobre el mundo, sino también sobre otros agentes o entidades en el mundo. En psicología, esto se llama "teoría de la mente": la comprensión de que las personas, las criaturas y los objetos en el mundo pueden tener pensamientos y emociones que afectan su propio comportamiento.

Esto es crucial para la forma en que los humanos formamos sociedades, porque nos permitieron tener interacciones sociales. Sin entender los motivos e intenciones de los demás, y sin tener en cuenta lo que otra persona sabe sobre mí o el medio ambiente, trabajar juntos es, en el mejor de los casos, difícil, en el peor de los casos, imposible.

Si los sistemas de IA van a caminar entre nosotros, tendrán que ser capaces de comprender que cada uno de nosotros tiene pensamientos, sentimientos y expectativas sobre cómo seremos tratados. Y tendrán que ajustar su comportamiento en consecuencia.

Tipo IV AI: autoconciencia

El paso final del desarrollo de la IA es construir sistemas que puedan formar representaciones sobre sí mismos. En última instancia, los investigadores de IA tendremos que comprender no solo la conciencia, sino también construir máquinas que la tengan.

Esto es, en cierto sentido, una extensión de la "teoría de la mente" que poseen las inteligencias artificiales Tipo III. La conciencia también se llama "autoconciencia" por una razón. ("Quiero ese artículo" es una declaración muy diferente de "Sé que quiero ese artículo".) Los seres conscientes son conscientes de sí mismos, conocen sus estados internos y pueden predecir los sentimientos de los demás. Asumimos que alguien toca la bocina detrás de nosotros en el tráfico está enojado o impaciente, porque así es como nos sentimos cuando tocamos la bocina a los demás. Sin una teoría de la mente, no podríamos hacer ese tipo de inferencias.

Si bien probablemente estamos lejos de crear máquinas que sean conscientes de sí mismas, debemos enfocar nuestros esfuerzos hacia la comprensión de la memoria, el aprendizaje y la capacidad de basar las decisiones en experiencias pasadas. Este es un paso importante para comprender la inteligencia humana por sí solo. Y es crucial si queremos diseñar o desarrollar máquinas que sean más que excepcionales para clasificar lo que ven frente a ellas.

Arend Hintze, profesor asistente de biología integrativa e informática e ingeniería, Universidad del estado de michigan

Pin
Send
Share
Send