Ein bedingtes latentes autoregressives rekurrentes Modell für die Generierung und Prognose der Strahldynamik in Teilchenbeschleunigern – Scientific Reports

Ein bedingtes latentes autoregressives rekurrentes Modell für die Generierung und Prognose der Strahldynamik in Teilchenbeschleunigern – Scientific Reports

Viele Probleme in der Physik haben Raumzeitdynamik, bei der abhängige Variablen als Funktion sowohl der räumlichen als auch der zeitlichen Koordinaten variieren. In dieser Arbeit betrachten wir eine Zustandsraum-Dichte \(\rho (\textbf{x},t)\) eines hochdimensionalen dynamischen Systems (\(\textbf{x}\in \mathbb {R}^n\)), das sich gemäß der Dynamik $$\begin{aligned} \frac{\partial \rho }{\partial t} = F(\rho ,\textbf{x},\textbf{P}(\textbf{x},t),t), \end{aligned}$$ (1) entwickelt, wobei der Zustand des Systems durch externe, zeitlich veränderliche Parameter \(\textbf{P}(\textbf{x},t)\) beeinflusst wird. Beispiele solcher Systeme sind die Strahldichte \(\rho \) eines geladenen Teilchenstrahls in einem Beschleuniger, wo \(\textbf{x}\) Partikelpositionen und -geschwindigkeiten und \(\textbf{P}(\textbf{x},t)\) verschiedene zeitabhängige elektromagnetische Vorrichtungen darstellen, die die dynamische Entwicklung des Strahls beeinflussen. Ein weiteres Beispiel ist die Dynamik des Wetters, wobei \(\textbf{x}\) den Standort und \(\textbf{P}(\textbf{x},t)\) lokale Umwelteinflüsse auf die Wetterdynamik repräsentiert. Die Untersuchung solcher Probleme kann rechnerisch herausfordernd sein, wenn komplexe zeitliche Dynamik mit detaillierten räumlichen Merkmalen verbunden ist und somit eine genaue Gitternetzstruktur sowohl in Raum als auch Zeit erfordert.

Mit Fortschritten in parallelen Berechnungen unter Verwendung moderner Grafikprozessoren (GPUs) hat maschinelles Lernen neue Möglichkeiten zur Lösung solcher komplexen Probleme in der Physik eröffnet. Einige Anwendungen umfassen Strömungsmechanik, Akustik, Astrophysik, Kernphysik, Plasmaphysik und Biophysik. Die Mehrheit der derzeit eingesetzten Deep Learning (DL) -Techniken fallen entweder in das räumliche oder sequenzielle Lernen, mit begrenztem Schwerpunkt auf Raumzeitdynamik. Während DL-Techniken, die entwickelt wurden, um raumzeitliche dynamische Phänomene zu modellieren, existieren, sind sie relativ selten. Drei-dimensionale Faltungsneuronale Netze (3DCNN) mit harten Physikkonzepten wurden entwickelt, um die raumzeitlichen Maxwell-Gleichungen für Elektrodynamik zu lösen. 3DCNNs wurden auch eingesetzt, um raumzeitliche Dynamiken der kompressiblen Navier-Stokes-Gleichungen zu erfassen, indem räumliche und zeitliche Merkmale gleichzeitig durch einen gemeinsamen 3D-Kern extrahiert werden. Convolutional Long Short-Term Memory (ConvLSTM) stellt einen weiterhin weit verbreiteten Ansatz zur Behandlung raumzeitlicher Daten dar. In dieser Methode extrahiert eine CNN raumliche Merkmale, während ein LSTM-Netzwerk auf zeitliche Vorhersagen fokussiert. Die zeitliche Vorhersage erfolgt in einem höherdimensionalen Merkmalsraum, der durch das CNN extrahiert wurde. Ein solches Modell wurde für kurze Zeitvorhersagen von Niederschlägen (jetztcasting) verwendet. Deep Convolutional Generative Adversarial Networks (DCGAN) wurden verwendet, um tiefe faltende Netzwerke in einem adversariellen Rahmen zu nutzen, um Flussdynamiken zu erlernen. Eine Kombination aus CNN-LSTM-DNN wird verwendet, um die Mehrphasen-CO2-Strömungsmodellierung von Sättigung und Druckverteilung im Laufe der Zeit für Echtzeitanalysen zu modellieren. Graph Neural Networks (GNN) werden für das Lernen von raumzeitlichen Daten verwendet und für die Vorhersage von Strömungsphysikproblemen eingesetzt. GNN wurden auch für Surrogatmodellierung angewendet, um die laminare Strömung um zweidimensionale Körper vorherzusagen.

Kürzlich haben latent raumzeitliche Modelle für die Lernung von raumzeitlichen Dynamiken verstärkte Aufmerksamkeit erfahren. In diesen Modellen wird ein dimensionsreduzierendes Rahmenkonzept (Hauptkomponentenanalyse oder ein nichtlineares Autoencoder) verwendet, um räumliche Korrelationen zu lernen, indem höherdimensionale Bilder auf einen niedrigdimensionalen latenten Raum abgebildet werden. Solche Ansätze erhöhen die Recheneffizienz, indem sie in einem niedrigdimensionalen Merkmalsraum arbeiten. Latente Raummodelle wurden auch auf die Lernung von Phasenfeld-basierter Mikrostrukturentwicklung angewendet, unter Verwendung gemeinsamer Zwei-Punkt-Statistiken und Hauptkomponentenanalyse für räumliche Korrelationen, wobei ein LSTM zur Vorhersage der Mikrostrukturentwicklung eines Zwei-Phasen-Gemisches eingesetzt wurde. Die Kombination aus Autoencodern (AE) und LSTMs wird ebenfalls zur Bewältigung von Strömungsproblemen eingesetzt. In jüngster Zeit werden \(\beta \)-Variationsautokodierer (VAE) und Transformer zur reduzierten Modellierung von Strömungen verwendet.

Der latente Einbettungsansatz in Kombination mit LSTM hat potenzielle Vorteile gezeigt und eine erhöhte Geschwindigkeit im Vergleich zu ConvLSTM- und DCGAN-Ansätzen gezeigt. Darüber hinaus wurde festgestellt, dass ein Encoder-Decoder-Netzwerk repräsentativere niedrigdimensionale Merkmale im Vergleich zu einem Encoder-Netzwerk in ConvLSTM extrahiert. Die Leistung eines rekurrenten neuronalen Netzwerks, das darauf trainiert ist, lange zeitliche Korrelationen zu lernen, wird in Gegenwart solcher Merkmale als überlegen herausgestellt. In den latenten Repräsentationen, die von regulären Autoencodern gelernt wurden, können die Eingaben auf getrennte Orte abgebildet werden, und besondere Sorgfalt muss in Form einer zusätzlichen Regularisierung auf die latente Repräsentation genommen werden, um den Autoencoder dazu zu leiten, dichte Einbettungen zu entwickeln, die für die generativen Finale dicht durchgeführt werden können. Variantenautoencoder sind probabilistische Modelle, die natürlicherweise zu dichten latenten Raumdarstellungen führen, die glatt traversiert werden können, was sie für die probabilistische Dichteschätzung gut geeignet macht. Darüber hinaus kann ein trainierter VAE neue realistische Beispiele generieren, ähnlich wie reguläre Autoencoder und generative Gegenüberstellungsnetzwerke, mit dem zusätzlichen Vorteil, explizit eine Wahrscheinlichkeitsverteilung über Eingabedaten im latenten Raum zu lernen.