Was wir immer noch nicht über maschinelles Lernen verstehen

Was wir immer noch nicht über maschinelles Lernen verstehen

Es ist überraschend, dass einige der grundlegenden Themen im maschinellen Lernen immer noch von Forschern unbekannt sind und trotz ihrer fundamentalen Bedeutung und weit verbreiteten Anwendung mysteriös erscheinen. Es ist interessant am maschinellen Lernen, dass wir Dinge bauen, die funktionieren, und dann herausfinden, warum sie überhaupt funktionieren!

In diesem Artikel geht es darum, das unbekannte Territorium einiger Konzepte im maschinellen Lernen zu untersuchen, um zu zeigen, dass diese Ideen zwar grundlegend erscheinen können, aber in Wirklichkeit aus Schichten von Abstraktion aufgebaut sind. Dies hilft uns, die Tiefe unseres Wissens zu hinterfragen.

Wir werden hier mehrere Schlüsselphänomene im Bereich des Deep Learnings erforschen, die unsere traditionelle Vorstellung von neuronalen Netzwerken herausfordern. Wir starten mit der Batch-Normalisierung und ihren zugrunde liegenden Mechanismen, die noch nicht vollständig verstanden sind. Wir untersuchen die gegensätzliche Beobachtung, dass überparametrisierte Modelle oft besser generalisieren, was im Widerspruch zu den klassischen Theorien des maschinellen Lernens steht. Wir erforschen die impliziten Regularisierungseffekte des Gradienten…

Wenn Sie kein Mitglied sind, können Sie hier kostenlos lesen👈