La inteligencia artificial acelera el desarrollo de energía de fusión ilimitada – SciTechDaily

0 1
- Anuncios -

AI para desarrollar energía de fusión ilimitada

Representación de la investigación de fusión en un tokamak en forma de dona realzado por inteligencia artificial. (Representación de Eliot Feibush / PPPL y Julian Kates-Harbeck / Harvard University)

La inteligencia artificial (IA), una rama de la informática que está transformando la investigación científica y la industria, ahora podría acelerar el desarrollo de energía de fusión segura, limpia y prácticamente ilimitada para generar electricidad. Un paso importante en esta dirección está en marcha en el Laboratorio de Física del Plasma de Princeton (DOEP) del Departamento de Energía de EE. UU. (PPPL) y en la Universidad de Princeton, donde un equipo de científicos que trabajan con un estudiante graduado de Harvard por primera vez está aplicando un aprendizaje profundo: Una nueva versión poderosa de la forma de aprendizaje automático de la IA: para pronosticar interrupciones repentinas que pueden detener las reacciones de fusión y dañar los tokamaks en forma de dona que albergan las reacciones.

Nuevo capítulo prometedor en la investigación de fusión.

«Esta investigación abre un nuevo capítulo prometedor en el esfuerzo por llevar energía ilimitada a la Tierra», dijo Steve Cowley, director de PPPL, sobre los hallazgos (el enlace es externo), que se informa en el número actual de la revista Nature. «La inteligencia artificial está explotando en todas las ciencias y ahora está empezando a contribuir a la búsqueda mundial del poder de fusión».

La fusión, que impulsa el sol y las estrellas, es la fusión de elementos de luz en forma de plasma, el estado caliente y cargado de materia compuesto por electrones libres y núcleos atómicos, que genera energía. Los científicos están buscando replicar la fusión en la Tierra para un suministro abundante de energía para la producción de electricidad.

Crucial para demostrar la capacidad de aprendizaje profundo para pronosticar interrupciones (la repentina pérdida de confinamiento de partículas de plasma y energía) ha sido el acceso a enormes bases de datos proporcionadas por dos instalaciones de fusión principales: la Instalación de Fusión Nacional DIII-D que General Atomics opera para el DOE. en California, la instalación más grande de los Estados Unidos, y el Joint European Torus (JET) en el Reino Unido, la instalación más grande del mundo, que es administrada por EUROfusion, el Consorcio Europeo para el Desarrollo de la Energía de Fusión. El apoyo de los científicos de JET y DIII-D ha sido esencial para este trabajo.

Las vastas bases de datos han permitido predicciones confiables de interrupciones en tokamaks distintas de aquellas en las que se entrenó el sistema, en este caso desde el DIII-D más pequeño hasta el JET más grande. El logro es un buen augurio para la predicción de interrupciones en ITER, un tokamak mucho más grande y poderoso que tendrá que aplicar las capacidades aprendidas en las instalaciones de fusión de hoy.
El código de aprendizaje profundo, llamado Fusion Recurrent Neural Network (FRNN), también abre posibles vías para controlar y predecir las interrupciones.

Energía de fusión ilimitada

Foto de cámara rápida de un plasma producido por la primera campaña de operaciones NSTX-U.

Área más intrigante del crecimiento científico.

«La inteligencia artificial es el área de crecimiento científico más intrigante en este momento, y casarla con la ciencia de la fusión es muy emocionante», dijo Bill Tang, uno de los principales investigadores físicos de PPPL, coautor del artículo y profesor con el rango y el título de profesor. en el Departamento de Ciencias Astrofísicas de la Universidad de Princeton que supervisa el proyecto de AI. «Hemos acelerado la capacidad de predecir con gran precisión el desafío más peligroso para limpiar la energía de fusión».

A diferencia del software tradicional, que lleva a cabo las instrucciones prescritas, el aprendizaje profundo aprende de sus errores. Para lograr esta magia aparente están las redes neuronales, las capas de nodos interconectados (algoritmos matemáticos) que están «parametrizados» o que el programa le da un peso para dar forma a la salida deseada. Para cualquier entrada dada, los nodos buscan producir una salida específica, como la identificación correcta de una cara o pronósticos precisos de una interrupción. El entrenamiento se activa cuando un nodo no logra esta tarea: los pesos se ajustan automáticamente para los datos nuevos hasta que se obtiene el resultado correcto.

Una característica clave del aprendizaje profundo es su capacidad para capturar datos de alta dimensión en lugar de una dimensión. Por ejemplo, mientras que el software de aprendizaje no profundo puede considerar la temperatura de un plasma en un solo punto en el tiempo, el FRNN considera que los perfiles de la temperatura se desarrollan en el tiempo y el espacio. «La capacidad de los métodos de aprendizaje profundo para aprender de estos datos complejos los convierte en un candidato ideal para la tarea de predicción de interrupciones», dijo el colaborador Julian Kates-Harbeck, un estudiante graduado de física en la Universidad de Harvard y un graduado de ciencias computacionales de la Oficina de Ciencias del DOE Compañero que fue autor principal del artículo de Nature y arquitecto jefe del código.

El entrenamiento y la ejecución de redes neuronales se basan en unidades de procesamiento de gráficos (GPU, por sus siglas en inglés), los primeros chips de computadora diseñados para representar imágenes en 3D. Dichos chips son ideales para ejecutar aplicaciones de aprendizaje profundo y son ampliamente utilizados por las empresas para producir capacidades de inteligencia artificial, como comprender el lenguaje hablado y observar las condiciones de la carretera conduciendo autos que conducen.

Kates-Harbeck entrenó el código FRNN en más de dos terabytes (1012) de datos recopilados de JET y DIII-D. Después de ejecutar el software en el grupo de GPU modernas Tiger de la Universidad de Princeton, el equipo lo colocó en Titan, una supercomputadora en la Instalación de computación de liderazgo de Oak Ridge, una Instalación de usuarios de la Oficina de Ciencia del DOE y otras máquinas de alto rendimiento.

Una tarea exigente

Distribuir la red en muchas computadoras era una tarea exigente. «El entrenamiento en redes neuronales profundas es un problema de computación intensiva que requiere la participación de clusters de computación de alto rendimiento», dijo Alexey Svyatkovskiy, coautor del artículo de Nature que ayudó a convertir los algoritmos en un código de producción y ahora está en Microsoft. «Ponemos una copia de toda nuestra red neuronal en muchos procesadores para lograr un procesamiento paralelo altamente eficiente», dijo.

El software demostró además su capacidad para predecir las interrupciones verdaderas dentro del marco de tiempo de 30 milisegundos que ITER requerirá, al tiempo que reduce el número de falsas alarmas. El código ahora se está cerrando en el requisito ITER de 95 por ciento de predicciones correctas con menos de 3 por ciento de falsas alarmas. Si bien los investigadores dicen que solo la operación experimental en vivo puede demostrar los méritos de cualquier método predictivo, su documento señala que las grandes bases de datos de archivo utilizadas en las predicciones “cubren una amplia gama de escenarios operativos y, por lo tanto, proporcionan evidencia significativa sobre las fortalezas relativas de Los métodos considerados en este documento ”.

De la predicción al control.

El siguiente paso será pasar de la predicción al control de las interrupciones. «En lugar de predecir las interrupciones en el último momento y luego mitigarlas, lo ideal sería utilizar futuros modelos de aprendizaje profundo para alejar suavemente el plasma de las regiones de inestabilidad con el objetivo de evitar la mayoría de las interrupciones en primer lugar», dijo Kates-Harbeck. Michael Zarnstorff, quien recientemente se mudó del subdirector de investigación en PPPL a director científico para el laboratorio, destacó este próximo paso. «El control será esencial para los tokamaks post-ITER, en los que la prevención de interrupciones será un requisito esencial», señaló Zarnstorff.

El progreso de predicciones precisas habilitadas para la IA a un control de plasma realista requerirá más de una disciplina. «Combinaremos el aprendizaje profundo con la física básica de primer principio en computadoras de alto rendimiento para concentrarnos en mecanismos de control realistas en la grabación de plasmas», dijo Tang. “Por control, uno significa saber qué ‘mandos activar’ en un tokamak para cambiar las condiciones para evitar interrupciones. Eso es lo que estamos viendo y hacia dónde nos dirigimos «.

El apoyo para este trabajo proviene del Programa de becas de posgrado en ciencias computacionales del Departamento de Energía de la Oficina de Ciencia y Administración Nacional de Seguridad Nuclear del DOE; del Instituto de Ciencias e Ingeniería Computacionales de la Universidad de Princeton (PICsiE); y de los fondos de Investigación y Desarrollo Dirigidos por Laboratorio que proporciona PPPL. Los autores desean agradecer la asistencia con la supercomputación de alto rendimiento de Bill Wichser y Curt Hillegas en PICSciE; Jack Wells en la instalación de computación de liderazgo de Oak Ridge; Satoshi Matsuoka y Rio Yokata en el Instituto de Tecnología de Tokio; y Tom Gibbs en NVIDIA Corp.

Publicación: MD Boyer, et al., «Modelado en tiempo real capaz de inyección de haz neutro en NSTX-U utilizando redes neuronales», Nuclear Fusion, 2019; doi: 10.1088 / 1741-4326 / ab0762

Lee mas

- Anuncios -

You might also like More from author

Leave A Reply

Your email address will not be published.