Tiefe Kernel-Lernmethode für Vorhersage und Optimierung von Reaktionsergebnissen – Kommunikationschemie

Tiefe Kernel-Lernmethode für Vorhersage und Optimierung von Reaktionsergebnissen – Kommunikationschemie

Um unseren Ansatz zu demonstrieren, wählten wir eine katalytische Transformation von hoher praktischer Nützlichkeit aus, nämlich die Buchwald-Hartwig-Kreuzkupplung. Der Reaktionsraum umfasst alle möglichen Kombinationen von 15 Arylhalogeniden, 4 Liganden, 3 Basen und 23 Additiven. Das Datenset besteht aus insgesamt 3.955 Reaktionen mit den entsprechenden experimentellen Ausbeuten. Frühere Studien haben ein Ausbeutungsmodell für dieses Datenset unter Verwendung verschiedener gelernter und nicht gelernter molekularer Darstellungen gemeldet. Die nicht gelernten Darstellungen werden manuell von einem Experten unter Verwendung von domänenspezifischem Wissen (physikalisch-organische Deskriptoren, molekulare Fingerabdrücke, etc.) konstruiert. Die Deep-Learning-Modelle lernen hingegen direkt Darstellungen aus molekularen Strukturen wie SMILES und Graphen. Die Wahl des ML-Modells wird hauptsächlich durch die Eingaberepräsentation und umgekehrt entschieden. In den folgenden Abschnitten beschreiben wir kurz unseren Ansatz und zeigen, wie er mit gelernten und nicht gelernten Darstellungen verwendet werden kann.

Die Reaktion umfasst alle möglichen Kombinationen von 15 Arylhalogeniden, 4 Katalysatoren, 3 Basen und 23 Additiven und ergibt insgesamt 3.955 Reaktionen. Die Reaktionsausbeute reicht von 0 bis >99,9. In den frühen Stadien der Reaktionsentwicklung ist in der Regel nur eine geringe Datenmenge verfügbar. Die nicht gelernten Darstellungen, die unter Verwendung von domänenspezifischem Wissen erstellt wurden, funktionieren in der Regel gut in niedrigen Datensätzen. Aufgrund dessen entschieden wir uns, den nicht gelernten Darstellungen zusätzliche Flexibilität zu bieten, indem wir sie in ein DKL-Framework integrierten. Dies ermöglichte es uns, eine Feedforward-NN zur Extraktion von Merkmalen aus der nicht gelernten Eingaberepräsentation zu verwenden, gefolgt von einem GP zur Ausbeuteprognose. Diese Methode wurde erfolgreich angewendet, um die Leistung des Modells zu verbessern.

Molekulare Graphen werden häufig als Eingaberepräsentationen für GNNs bei verschiedenen Aufgaben in der Chemie verwendet. Die GNNs können relevante Merkmale aus dem molekularen Graphen automatisch erfassen, die anschließend für Prognosen genutzt werden können. Unter Verwendung einer Struktur mit atomaren und Bindungsmerkmalen als Eingabe und einem GNN als Merkmalsextraktor bauen wir unser DKL-Modell mit GNN als Eingaberepräsentation und GP für die Ausbeuteprognose auf. Die GNNs können relevante Merkmale aus dem molekularen Graph erfassen, was zu einer verbesserten Vorhersageleistung führt. Die Leistung des Modells wurde durch verschiedene Metriken wie RMSE und R-squared bewertet und verglichen, wobei das DKL-Modell mit GNN-basierten Eingaberepräsentationen eine vergleichbare Leistung zu standardmäßigen GNNs zeigte.

Zusammenfassend zeigen unsere Ergebnisse, dass der DKL-Ansatz gute Vorhersageergebnisse und zuverlässige Unsicherheitsschätzungen liefert, was ihn zu einem geeigneten Kandidaten für die Reaktionsoptimierung und -entdeckung macht. Wir untersuchten auch die Leistung des DKL-Modells im Rahmen des Bayes’schen Optimierungsalgorithmus (BO) zur Beschleunigung der Reaktionsoptimierung. Durch die Kombination von DKL mit BO konnten wir zeigen, dass das Modell bereits in frühen Stadien der Reaktionsoptimierung bessere Ergebnisse erzielt als herkömmliche Gaussian Prozesse (GP). Zusätzlich demonstrierten wir den Einsatz des DKL-Modells als Surrogatmodell in der BO und zeigten dessen Wirksamkeit bei der Beschleunigung des Reaktionsentdeckungsprozesses.