Investigación

¿Qué pasa con la inteligencia artificial? Análisis de 16 625 trabajos realizados en los últimos 25 años.

Casi todo lo que escuchas sobre artificialLa inteligencia de hoy, se debe al profundo aprendizaje. Esta categoría de algoritmos trabaja con estadísticas para encontrar patrones en los datos, y ha demostrado ser extremadamente poderosa para imitar las habilidades humanas, como nuestra capacidad para ver y escuchar. En un grado muy estrecho, incluso puede imitar nuestra capacidad de razonar. Estos algoritmos son compatibles con la búsqueda de Google, las noticias de Facebook, el motor de recomendación de Netflix y también forman industrias como la salud y la educación.

Cómo desarrollar el aprendizaje profundo.

A pesar de que el aprendizaje profundo es prácticamentesolo, se reveló la inteligencia artificial del público, que representa solo un pequeño destello en la tarea histórica de la humanidad de reproducir su propia inteligencia. Ha estado a la vanguardia de esta búsqueda durante menos de una década. Sin embargo, si para distanciar toda la historia de esta área, es fácil comprender que pronto también puede desaparecer.

"Si en 2011 alguien escribiera tan profundo.El aprendizaje estará en las primeras páginas de los periódicos y revistas, en unos pocos, estaríamos: wow, bueno, fumas estupefacientes ", dice Pedro Domingos, profesor de informática en la Universidad de Washington y autor del libro Master The Master Algorithm '.

Según él, subidas y bajadas repentinas.varios métodos se han caracterizado por la investigación en el campo de la IA. Cada década hay una competencia caliente entre diferentes ideas. Luego, de vez en cuando, el interruptor hace clic y toda la comunidad comienza a participar en una cosa.

Nuestros colegas de MIT Technology Review queríanVisualiza estos viajes y comienza. Con este fin, recurrieron a una de las mayores bases de datos de artículos científicos abiertos, conocida como arXiv. Descargaron extractos de un total de 16.625 artículos disponibles en la sección de “inteligencia artificial” el 18 de noviembre de 2018, y rastrearon las palabras mencionadas a lo largo de los años para ver cómo se desarrolló esta área.

Gracias a su análisis, tres principales.tendencias: un cambio hacia el aprendizaje automático a finales de los 90 - principios de los 2000, la creciente popularidad de las redes neuronales que comenzaron a principios de la década de 2010 y el crecimiento del aprendizaje por refuerzo en los últimos años.

Pero primero, unas cuantas reservas. Primero, la sección arXiv con AI se remonta a 1993, y el término "inteligencia artificial" se refiere a la década de 1950, por lo que la base de datos representa solo los últimos capítulos en la historia de este campo. En segundo lugar, los documentos que se agregan a la base de datos cada año representan solo una parte del trabajo que se está realizando en esta área en este momento. Sin embargo, arXiv ofrece un excelente recurso para identificar algunas de las principales tendencias de investigación y para ver el tira y afloja entre diferentes campos ideológicos.

Paradigma de aprendizaje automático

El mayor cambio que encontró.Investigadores, esto es una desviación de los sistemas basados ​​en el conocimiento, a principios de los años 2000. Estos sistemas informáticos se basan en la idea de que puede codificar todo el conocimiento de la humanidad en el sistema de reglas. En cambio, los científicos se enfocaron en el aprendizaje automático, la categoría principal de algoritmos que incluye el aprendizaje profundo.

Entre las 100 palabras mencionadas están relacionadas con sistemas.sobre la base del conocimiento - "lógica", "restricciones" y "regla" - disminuyó más. Y asociado con el aprendizaje automático, "datos", "red", "rendimiento" - creció más que otros.

La razón de este cambio de clima es muy simple. En la década de 1980, los sistemas basados ​​en el conocimiento ganaban popularidad entre los fanáticos, gracias a la emoción en torno a proyectos ambiciosos que intentaban recrear el sentido común en los autos. Pero cuando se implementaron estos proyectos, los investigadores enfrentaron un problema importante: se tenían que codificar demasiadas reglas para que el sistema pudiera hacer algo útil. Esto llevó a un aumento de los costos y retrasó significativamente los procesos actuales.

La respuesta a este problema fue el aprendizaje automático. En lugar de requerir que las personas codifiquen manualmente cientos de miles de reglas, este enfoque programa a las máquinas para que extraigan automáticamente estas reglas de una pila de datos. De manera similar, esta área ha abandonado los sistemas basados ​​en el conocimiento y se ha dirigido a mejorar el aprendizaje automático.

Auge de la red neuronal

Como parte del nuevo paradigma de aprendizaje automático.la transición al aprendizaje profundo no ocurrió inmediatamente. En cambio, como lo demuestra el análisis de términos clave, los científicos han probado muchos métodos además de las redes neuronales, los principales mecanismos para el aprendizaje profundo. Otros métodos populares incluyeron las redes bayesianas, la máquina de vectores de soporte y los algoritmos evolutivos, todos los cuales utilizan diferentes enfoques para encontrar patrones en los datos.

Durante los años 90 y 2000 entre estos.Los métodos de la competencia eran sostenibles. Luego, en 2012, un avance cardinal llevó a otro cambio de clima. Durante un concurso anual de ImageNet diseñado para acelerar el progreso de la visión por computadora, un investigador llamado Geoffrey Hinton y sus colegas de la Universidad de Toronto lograron la mejor precisión en el reconocimiento de imágenes con un error de poco más del 10%.

Técnica de aprendizaje profundo de él.Usado, generó una nueva ola de investigación, primero en la comunidad de visualizadores, y luego más allá. A medida que más y más científicos comenzaron a usarlo para lograr resultados impresionantes, la popularidad de esta técnica, junto con la popularidad de las redes neuronales, ha aumentado dramáticamente.

Crecimiento del aprendizaje por refuerzo.

El análisis mostró que, pocos años después del apogeo del aprendizaje profundo, hubo un tercer y último cambio en la investigación de la IA.

Además de varios métodos de aprendizaje automático,Hay tres tipos diferentes: supervisados, no controlados y reforzados. El aprendizaje supervisado, que consiste en alimentar los datos etiquetados a una máquina, se usa con mayor frecuencia y también tiene las aplicaciones más prácticas en la actualidad. Sin embargo, en los últimos años, la capacitación con refuerzos que imita el proceso de enseñar a los animales a través de “zanahorias y palos”, los castigos y las recompensas ha llevado a un rápido aumento de referencias en los trabajos.

La idea en sí no es nueva, pero durante muchas décadas no ha sidotrabajado "Los especialistas en aprendizaje supervisados ​​se rieron de los entrenadores de refuerzo", dice Domingos. Pero, al igual que con el aprendizaje profundo, un punto de inflexión de repente puso el método en primer plano.

Este momento llegó en octubre de 2015, cuando DeepMind AlphaGo, entrenado con refuerzos, derrotó al campeón mundial en el antiguo juego de go. El impacto en la comunidad investigadora fue instantáneo.

Próximos diez años

Análisis MIT Technology Review proporciona sóloEl último reparto de la competencia entre las ideas que caracterizan la investigación en IA. Sin embargo, ilustra la impermanencia del deseo de duplicación de inteligencia. "Es importante entender que nadie sabe cómo resolver este problema", dice Domingos.

Muchos de los métodos que se utilizaron enEn el transcurso de 25 años, aparecieron casi al mismo tiempo en la década de 1950 y no pudieron enfrentar los desafíos y éxitos de cada década. Las redes neuronales, por ejemplo, alcanzaron su punto máximo en los años 60 y un poco en los años 80, pero casi murieron antes de recuperar su popularidad, gracias al profundo aprendizaje.

Cada década, en otras palabras, vioEl predominio de otras tecnologías: redes neuronales a finales de los años 50 y 60, varios intentos simbólicos en los 70, sistemas basados ​​en el conocimiento en los 80, redes bayesianas en los 90, vectores de referencia en cero y redes neuronales nuevamente en 2010. x

Los 2020 no serán diferentes, dice.Domingos. Así que la era del aprendizaje profundo puede terminar pronto. Pero lo que sucederá a continuación, la vieja técnica en la nueva gloria, o un paradigma completamente nuevo, es el tema de las disputas en la comunidad.

"Si respondes a esta pregunta", dice Domingos, "quiero patentar la respuesta".

Para captar las noticias de inteligencia artificial por la cola, leemos en zen.