Tiefe Lernverfahren für hochauflösende seismische Bildgebung – Wissenschaftliche Berichte

Tiefe Lernverfahren für hochauflösende seismische Bildgebung – Wissenschaftliche Berichte

Die seismische Bildgebung zielt darauf ab, Untergrundstrukturen basierend auf beobachteten seismischen Daten abzuleiten. Dies kann durch die Lösung inverser Probleme erreicht werden. Die Reverse Time Migration (RTM) ist eine Bildgebungstechnik, die auf der Wellengleichung basiert und die Kreuzkorrelation der vorwärts und rückwärts laufenden Wellenfelder unter der Erde verwendet und sich besonders in Gebieten mit komplexen Strukturen und hohen Geschwindigkeitsvariationen als sehr anpassungsfähig erweist. RTM leidet jedoch unter niederfrequentem Rauschen und ungenauen Amplituden, was seine Anwendung in der seismischen Bildgebung einschränkt. Um die Schwächen von RTM zu überwinden, wird die Least Squares Reverse Time Migration (LSRTM) eingesetzt, die das Migrationsbild mit seismischen Daten verknüpft und die Qualität der seismischen Bildgebung verbessert.

In dieser Studie wird eine hybride Architektur vorgestellt, die Transformer und CNN zur Bewältigung von seismischen Bildgebungsaufgaben integriert. Innerhalb des Transformer-Frameworks erfordert die Notwendigkeit einer eindimensionalen Sequenz als Eingabe eine initiale Transformation des Eingabebildes. Die Image Patching-Phase beinhaltet die Unterteilung des Eingabebildes in eine Reihe von gleich großen Bildausschnitten, wobei jeder eine Größe von \(P^2\) hat. Dies transformiert das ursprüngliche \(H\times W\) Bild in eine \(N\times P\times P\) Sequenz, wobei \(N\) die Sequenzlänge darstellt und \(\frac{H\times W}{P^2}\) Bildausschnitte umfasst. Das Eingabebild wird somit in eine eindimensionale Sequenz umgeformt, wobei jeder Bildausschnitt einem Vektor entspricht.

Das vorgeschlagene Modell verwendet einen Transformer-Encoder mit \({\text{L}}=12\) Schichten zur Verarbeitung der Bildsequenz, wobei jede Encoderschicht aus Multi-Head Self-Attention (MSA) und Multi-Layer Perceptron (MLP) besteht. Diese gestapelten Transformer-Schichten ermöglichen es, die Komplexität der Daten aus mehreren Perspektiven zu erfassen. Um den Verlust von Primärmerkmalen zu verhindern, wird eine Multi-Level-Feature-Extraktionsstrategie angewendet. Zusätzlich zur letzten Schicht werden Merkmale aus den Schichten 6 und 9 extrahiert, was tiefere, mittlere und flache Merkmale repräsentiert und einen reichen und multi-skaligen Merkmalsraum bereitstellt. Diese drei Schichten von Merkmalen werden an verschiedene Auflösungen von Merkmalskarten angepasst und durch ASFF fusioniert, was zu einer adaptiven Aggregation in jeder Skala führt.