Model distillation ist eine Methode zur Erstellung interpretierbarer Machine-Learning-Modelle, bei der ein einfacherer “Schüler” -Ansatz verwendet wird, um die Vorhersagen eines komplexen “Lehrer” -Modells zu replizieren. Wenn die Leistung des Schülermodells jedoch mit verschiedenen Trainingsdatensätzen signifikant variiert, müssen seine Erklärungen ...