Gradientenabstieg und die Normalgleichung

Blog

Als ich meine Reise zum maschinellen Lernen begann, war Mathematik etwas, das mich immer fasziniert hat und immer noch tut.

Firebase-Admin-SDK Python

Ich für meinen Teil glaube, dass Bibliotheken wie scikit learn bei der Implementierung der Algorithmen tatsächlich Wunder bewirkt haben, aber ohne ein Verständnis der Mathematik, die in die Erstellung des Algorithmus einfließt, werden wir bei komplizierten Problemen zwangsläufig Fehler machen.

In diesem Artikel werde ich die Mathematik hinter Gradient Descent und die Ableitung hinter der normalen linearen Gleichung durchgehen und beide dann in einem Datensatz implementieren, um meine Koeffizienten zu erhalten.

Bild für Beitrag

Anmeldung bei dieser Geräte-Cash-App nicht möglich

Ein lineares Regressionsmodell. Rote Punkte sind die wahren y-Werte und die blaue Linie ist die Modelllinie

Bild für Beitrag

Kostenfunktion der linearen Regression

Wie Sie vielleicht bemerkt haben, sind die MSE-Gleichung und die Kostenfunktion gleich, aber anstelle der vorhergesagten Werte ŷ haben wir sie in Theta geschrieben.

Azure-Monitor für SAP-Lösungen

Hier ist ŷ nichts anderes als das Skalarprodukt der Transponierten von Theta und Werten von X.

#gradient-descent #maschinenlernen #data-science #künstliche-intelligenz #towards-data-science #data analysis

medium.com

Gradientenabstieg und die Normalgleichung

Gradientenabstieg und die Normalgleichung für die lineare Regression mit praktischer Implementierung in Python. Als ich meine Reise zum maschinellen Lernen begann, war die Mathematik etwas, das immer etwas war.