Die elegante Mathematik des maschinellen Lernens.

Die elegante Mathematik des maschinellen Lernens.

Maschinen können lernen! Ein paar Jahre zuvor entschied ich mich, wie man einfache Machine-Learning-Algorithmen programmiert. Nachdem ich über maschinelles Lernen geschrieben hatte, wollte ich die Details verstehen. Eines meiner ersten Projekte war der Bau eines rudimentären neuronalen Netzwerks, um die Daten des dänischen Astronomen Tycho Brahe über die Positionen von Mars zu analysieren und die Gesetze der planetaren Bewegung herauszufinden. Meine Programmierung eines neuronalen Netzwerks führte dazu, dass es zukünftige Planetenpositionen vorhersagen konnte.

Ein weiteres erstaunliches Konzept, das ich über das maschinelle Lernen gelernt habe, ist die Verwendung von Vektoren. Alles, sei es Planetenpositionen, ein Bild einer Katze oder eine Tonaufnahme eines Vogelrufs, kann in einen Vektor umgewandelt werden. Vektoren werden verwendet, um Eingabedaten und Ausgabedaten in maschinellen Lernmodellen zu repräsentieren. Jeder Vektor ist eine Sequenz von Zahlen, die als Abstand vom Ursprung entlang einer Achse eines Koordinatensystems betrachtet werden können. Bilder werden beispielsweise in Vektoren umgewandelt, um Muster zu lernen und Vorhersagen über neue, nicht gekennzeichnete Daten zu treffen.

Ein weiterer faszinierender Aspekt des maschinellen Lernens ist die Tatsache, dass einige Algorithmen als “universelle Funktionsapproximatoren” fungieren können. Diese Algorithmen, wie tiefe neuronale Netzwerke, können jede Funktion approximieren, unabhhängig von ihrer Komplexität. Sie können beispielsweise eine 100×100 Pixel Abbildung einer Katze als 10.000-dimensionaler Vektor repräsentieren und Muster in den Daten lernen, um Entscheidungen über neue Bilder zu treffen. Die Vielseitigkeit von Funktionen, die maschinelle Lernalgorithmen erlernen können, ist immens. Es ist wichtig zu beachten, dass Korrelation nicht gleich Ursache ist.