General

La supercomputadora más rápida del mundo rompió el récord de inteligencia artificial.

En la costa oeste de América, los más valiosos.Las empresas del mundo están tratando de hacer que la inteligencia artificial sea más inteligente. Google y Facebook cuentan con experimentos que utilizan miles de millones de fotos y miles de procesadores de alto rendimiento. Pero a fines del año pasado, un proyecto en el este de Tennessee superó silenciosamente la escala de cualquier laboratorio corporativo de inteligencia artificial. Y estaba bajo la administración del gobierno de Estados Unidos.

Supercomputadora del gobierno de Estados Unidos rompe récord

El proyecto discográfico involucró a los más poderosos enCumbre mundial de supercomputadoras, ubicada en el Laboratorio Nacional de Oak Ridge. Este auto recibió la corona en junio del año pasado, devolviendo el título estadounidense cinco años después, cuando la lista estaba encabezada por China. Como parte de un proyecto de investigación sobre el clima, una computadora gigante lanzó un experimento de aprendizaje automático que se desarrolló más rápido que nunca.

"Cumbre", ocupando un área equivalente a dos.Canchas de tenis, involucradas en este proyecto más de 27,000 potentes procesadores gráficos. Usó su poder para enseñar algoritmos de aprendizaje profundo, la misma tecnología que subyace a la inteligencia artificial avanzada. En el proceso de aprendizaje profundo, los algoritmos realizan ejercicios a una velocidad de mil millones de millones de operaciones por segundo, conocidas en los círculos de supercomputadoras como exaflop.

"Anteriormente, el aprendizaje profundo nunca llegóeste nivel de rendimiento ", dice Prabhat, el jefe del equipo de investigación en el Centro Nacional de Investigación de Energía en el Laboratorio Nacional Lawrence Berkeley. Su equipo colaboró ​​con investigadores en la sede de Summit, en el Laboratorio Nacional de Oak Ridge.

Como podrás imaginar, el entrenamiento de la propia IA.La computadora más poderosa del mundo se ha centrado en uno de los problemas más grandes del mundo: el cambio climático. Las compañías de tecnología enseñan algoritmos para reconocer caras o señales de tráfico; científicos del gobierno les han enseñado a reconocer las condiciones climáticas como los ciclones por modelos climáticos que comprimen los pronósticos del centenario de la atmósfera de la Tierra a las tres en punto. (Sin embargo, no está claro cuánta energía solicitó el proyecto y cuánto carbono se emitió al aire durante el proceso).

El experimento de la Cumbre es importante para el futuroInteligencia artificial y climatología. El proyecto demuestra el potencial científico de adaptar el aprendizaje profundo a las supercomputadoras, que tradicionalmente simulan procesos físicos y químicos, como explosiones nucleares, agujeros negros o nuevos materiales. También muestra que el aprendizaje automático puede beneficiarse de una mayor capacidad de computación, si lo puede encontrar, y proporcionar avances en el futuro.

"No sabíamos que se podía hacer en talesescala hasta que lo hicieron ", dice Rajat Monga, director técnico de Google. Él y otros googles ayudaron en el proyecto adaptando el software de código abierto de aprendizaje automático TensorFlow de la compañía para escalas gigantes de Summit.

Gran parte del trabajo de escalar en profundidadLa capacitación se llevó a cabo en los centros de datos de las compañías de Internet, donde los servidores trabajan juntos en los problemas, dividiéndolos, porque están ubicados de forma relativamente separada y no están conectados en una computadora gigante. Las supercomputadoras como Summit tienen una arquitectura diferente con conexiones de alta velocidad especializadas que conectan sus miles de procesadores en un solo sistema que puede funcionar como una sola unidad. Hasta hace poco, se realizaba relativamente poco trabajo en la adaptación del aprendizaje automático para trabajar con este tipo de hardware.

Monga dice trabajo de adaptación TensorFlowto scale Summit también contribuirá a los esfuerzos de Google para expandir sus sistemas internos de inteligencia artificial. Los ingenieros de Nvidia también participaron en este proyecto, asegurándose de que decenas de miles de GPU Nvidia en esta máquina funcionen sin interrupción.

Encontrar formas de usar más computacional.El poder en los algoritmos de aprendizaje profundo desempeñó un papel importante en el desarrollo actual de la tecnología. La misma tecnología que Siri usa para el reconocimiento de voz y los autos Waymo para leer señales de tránsito se convirtió en útil en 2012 después de que los científicos la adaptaron para trabajar en las GPU de Nvidia.

En un análisis publicado el pasado mes de mayo,Los científicos de OpenAI, un instituto de investigación con sede en San Francisco fundado por Ilon Mask, calcularon que la cantidad de potencia de cómputo en los experimentos más grandes de aprendizaje de máquinas públicas se ha duplicado aproximadamente cada 3.43 meses desde 2012; Esto significará un aumento de 11 veces durante el año. Esta progresión ayudó al Alfabet bot a derrotar a los campeones en juegos de escritorio y video complejos, y también contribuyó a un aumento significativo en la precisión del traductor de Google.

Google y otras compañías ahoraCrea nuevos tipos de chips, adaptados para AI, para continuar con esta tendencia. Google afirma que los "pods" con miles de sus chips AI (procesadores tensoriales duplicados o TPU) pueden proporcionar 100 petas de potencia de cómputo, que es una décima parte de la velocidad alcanzada por Summit.

La contribución de la Cumbre a la ciencia del clima.muestra cómo una IA de escala gigante puede mejorar nuestra comprensión de las condiciones climáticas futuras. Cuando los investigadores generan predicciones meteorológicas centenarias, leer la predicción se convierte en un desafío. “Imagina que tienes una película en YouTube que tiene 100 años. No hay manera de encontrar a mano todos los gatos y perros en esta película ”, dice Prabhat. Por lo general, el software se utiliza para automatizar este proceso, pero no es perfecto. Los resultados de la Cumbre mostraron que el aprendizaje automático puede hacerlo mucho mejor, lo que debería ayudar a predecir los impactos de las tormentas, como las inundaciones.

Según Michael Pritchard, un profesorIrvine, de la Universidad de California, es una idea relativamente nueva que ha surgido en un momento conveniente para los investigadores del clima. La desaceleración en la tasa de mejora de los procesadores tradicionales ha llevado al hecho de que los ingenieros comenzaron a equipar a las supercomputadoras con un número creciente de chips de gráficos, de modo que su rendimiento creció de forma más estable. "Ha llegado el momento en que ya no es posible aumentar la potencia de cómputo de la forma habitual", dice Pritchard.

Este cambio inició la simulación tradicional.punto muerto, y por lo tanto tuvo que adaptarse. También abre la puerta para aprovechar el poder del aprendizaje profundo, que naturalmente es adecuado para chips gráficos. Tal vez tengamos una imagen más clara del futuro de nuestro clima.

¿Cómo usarías tal supercomputadora? Cuéntanoslo en nuestro chat en telegram.