Der neuronale Netzwerkdichteoperator (NDO) basierend auf einer gereinigten RBM wird definiert, indem zusätzliche Hilfsknoten a analytisch aus einem erweiterten System, das durch eine parametrisierte Wellenfunktion ψ(σ, a) beschrieben wird, herausverfolgt werden. Die reduzierte Dichtematrix für die physikalischen Spin-Konfigurationen σ und σ’ wird dann erhalten, indem über diese Bade-Freiheitsgrade a marginalisiert wird. Dies kann durchgeführt werden, solange die Abhängigkeit von a in ψ ausgeklammert werden kann, wie es im RBM-Wellenfunktionsansatz der Fall ist. Jedoch repräsentiert dieses Design nicht die allgemeinste Dichtematrix, wo die Bade-Freiheitsgrade Spins in der sichtbaren Schicht wären, die herausverfolgt werden, anstelle eines anderen Satzes von verborgenen Knoten. Es wurde kürzlich gezeigt, dass bessere Ergebnisse erzielt werden können, indem RBM-Kopplungen nur für die Bade-Knoten beibehalten und die Abhängigkeit von den sichtbaren Knoten mit einem tiefen neuronalen Netzwerk parametrisiert wird.
Konvolutionsneuronale Netze sind in den meisten modernen neuronalen Netzwerkarchitekturen weit verbreitet, z.B. in der Bilderkennung. Die Ausgabe der n-ten Faltungsschicht wird durch die Anwendung von Konvolutionsfiltern, gefolgt von einer nichtlinearen Aktivierungsfunktion und möglicherweise durch Pooling oder Mittelwertbildung zur Verringerung der Merkmalsgröße, berechnet. Die Kernels extrahieren nur lokale Informationen oder kurzreichweitige Korrelationen zwischen den Eingabeknoten für diese Schicht. Durch die Anwendung mehrerer Schichten wird das Sichtfeld der Ausgabeknoten vergrößert. Eine Faltungsschicht kann auch als vollständig verbundene Schicht von Neuronen verstanden werden, bei der einige Parameter zwischen ihnen gemeinsam genutzt werden, sodass es viele mehr Verbindungen als Parameter gibt.
Um einen hermiteschend Dichteoperator zu repräsentieren, parametrisieren wir die Dichtematrix mit dem Netzwerkoutput Aθ und einer Reihe von variationalen Parametern θ. Die Lokalität der Spins σi und σi’ an der Stelle i im Design des Netzwerks zu berücksichtigen, setzen wir σ und σ’ anstatt sie zu verketten, um eine neue Dimension einzuführen. Für eine eindimensionale Kette von N Spins wird der Eingang dann zu einem 2D-Bild der Größe N x 2, bei dem die Paare (σi, σi’) zusammen bleiben. Bei Gittern mit mehr als einer Dimension können wir dies auf ähnliche Weise umsetzen. Wir wenden dann auf die Eingabeknoten zwei oder mehr Faltungsschichten mit Kernels fester Größe an, um darzustellen, wie gut weitreichende Korrelationen wiedergegeben werden können. Die resultierenden Merkmalskarten in jeder Schicht werden elementweise durch die leckende Variante der ReLu-Funktion transformiert, um komplexe Dichtematrixamplituden zu erhalten.
Hinterlasse eine Antwort