Machine-Learning-Anwendungen für ungelabelte Daten mit Python programmieren
E-Book, Deutsch, 358 Seiten
ISBN: 978-3-96088-876-5
Verlag: O'Reilly
Format: PDF
Kopierschutz: 1 - PDF Watermark
Ankur A. Patel ist Vice President Data Science bei 7Park Data, einem Portfolio-Unternehmen von Vista Equity Partners. Bei 7Park Data verwenden Ankur und sein Data-Science-Team alternative Daten, um Datenprodukte für Hedge-Fonds und Unternehmen sowie Machine Learning als Service (MLaaS) für Geschäftskunden zu entwickeln.
Weitere Infos & Material
1;Inhalt;5
2;Einleitung;13
3;Teil I: Grundlagen des Unsupervised Learning;23
3.1;Kapitel 1: Unsupervised Learning im Ökosystem des maschinellen Lernens;25
3.1.1;Grundbegriffe des maschinellen Lernens;25
3.1.2;Regelbasiertes vs. maschinelles Lernen;26
3.1.3;Supervised vs. Unsupervised;1
3.1.4;Ein genauerer Blick auf überwachte Algorithmen;33
3.1.5;Unüberwachte Algorithmen unter der Lupe;39
3.1.6;Reinforcement Learning mithilfe von Unsupervised Learning;48
3.1.7;Semi-supervised Learning;49
3.1.8;Erfolgreiche Anwendungen von Unsupervised Learning;49
3.1.9;Zusammenfassung;51
3.2;Kapitel 2: Durchgehendes Projekt zum maschinellen Lernen;53
3.2.1;Die Umgebung einrichten;53
3.2.2;Die Daten im Überblick;56
3.2.3;Datenvorbereitung;57
3.2.4;Modellvorbereitung;64
3.2.5;Modelle des maschinellen Lernens (Teil 1);66
3.2.6;Kennzahlen bewerten;69
3.2.7;Modelle des maschinellen Lernens (Teil 2);75
3.2.8;Bewertung der vier Modelle mit dem Testset;84
3.2.9;Ensembles;88
3.2.10;Endgültige Modellauswahl;91
3.2.11;Produktionspipeline;92
3.2.12;Zusammenfassung;93
4;Teil II: Unsupervised Learning mit Scikit-learn;95
4.1;Kapitel 3: Dimensionsreduktion;97
4.1.1;Die Motivation zur Dimensionsreduktion;97
4.1.2;Algorithmen zur Dimensionsreduktion;101
4.1.3;Hauptkomponentenanalyse;102
4.1.4;Singulärwertzerlegung;111
4.1.5;Zufallsprojektion;113
4.1.6;Isomap;115
4.1.7;Multidimensionale Skalierung;116
4.1.8;Lokal lineare Einbettung;117
4.1.9;Stochastische Nachbarschaftseinbettung mit Student-t-Verteilung;118
4.1.10;Andere Methoden zur Dimensionsreduktion;120
4.1.11;Zusammenfassung;122
4.2;Kapitel 4: Anomalieerkennung;125
4.2.1;Kreditkartenbetrugserkennung;126
4.2.2;Anomalieerkennung mit normaler PCA;129
4.2.3;Anomalieerkennung mit sparse PCA;134
4.2.4;Anomalieerkennung mit Kernel-PCA;137
4.2.5;Anomalieerkennung mit gaußscher Zufallsprojektion;139
4.2.6;Anomalieerkennung mit sparse Zufallsprojektion;141
4.2.7;Nicht lineare Anomalieerkennung;142
4.2.8;Anomalieerkennung mit Dictionary Learning;143
4.2.9;Anomalieerkennung mit Unabhängigkeitsanalyse;145
4.2.10;Betrugserkennung auf dem Testset;146
4.2.11;Zusammenfassung;151
4.3;Kapitel 5: Clustering;153
4.3.1;Das MNIST-Ziffern-Dataset;154
4.3.2;Clustering-Algorithmen;155
4.3.3;k-Means-Algorithmus;156
4.3.4;Hierarchisches Clustering;163
4.3.5;DBSCAN;169
4.3.6;Zusammenfassung;173
4.4;Kapitel 6: Gruppensegmentierung;175
4.4.1;Lending-Club-Daten;175
4.4.2;Güte der Cluster;182
4.4.3;k-Means-Anwendung;184
4.4.4;Anwendung mit hierarchischem Clustering;186
4.4.5;Anwendung mit HDBSCAN;190
4.4.6;Zusammenfassung;192
5;Teil III: Unsupervised Learning mit TensorFlow und Keras;193
5.1;Kapitel 7: Autoencoder;195
5.1.1;Neuronale Netze;196
5.1.2;Autoencoder: der Encoder und der Decoder;199
5.1.3;Untervollständige Autoencoder;200
5.1.4;Übervollständige Autoencoder;201
5.1.5;Dichte vs. sparsame Autoencoder;201
5.1.6;Autoencoder zur Rauschunterdrückung;202
5.1.7;Variational Autoencoder;202
5.1.8;Zusammenfassung;203
5.2;Kapitel 8: Praktische Autoencoder;205
5.2.1;Datenvorbereitung;205
5.2.2;Die Bestandteile eines Autoencoders;208
5.2.3;Aktivierungsfunktionen;208
5.2.4;Unser erster Autoencoder;209
5.2.5;Zweischichtiger untervollständiger Autoencoder mit linearer Aktivierungsfunktion;216
5.2.6;Nicht linearer Autoencoder;222
5.2.7;Übervollständiger Autoencoder mit linearer Aktivierung;224
5.2.8;Übervollständiger Autoencoder mit linearer Aktivierung und Drop-out;227
5.2.9;Sparse übervollständiger Autoencoder mit linearer Aktivierung;229
5.2.10;Sparse übervollständiger Autoencoder mit linearer Aktivierung und Drop-out;231
5.2.11;Mit verrauschten Datasets arbeiten;233
5.2.12;Rauschreduzierender Autoencoder;233
5.2.13;Zusammenfassung;241
5.3;Kapitel 9: Semi-supervised Learning;243
5.3.1;Datenvorbereitung;243
5.3.2;Supervised Modelle;246
5.3.3;Unsupervised Modelle;248
5.3.4;Semi-supervised Modelle;250
5.3.5;Die Leistung von supervised und unsupervised Modellen;253
5.3.6;Zusammenfassung;253
6;Teil IV: Deep Unsupervised Learning mit TensorFlow und Keras;255
6.1;Kapitel 10: Empfehlungsdienste mit beschränkten Boltzmann-Maschinen;257
6.1.1;Boltzmann-Maschinen;257
6.1.2;Empfehlungsdienste;259
6.1.3;MovieLens-Dataset;260
6.1.4;Matrixfaktorisierung;266
6.1.5;Kollaboratives Filtern mit RBMs;269
6.1.6;Zusammenfassung;275
6.2;Kapitel 11: Featureerkennung mit Deep Belief Networks;277
6.2.1;Deep Belief Networks im Detail;277
6.2.2;MNIST-Bildklassifizierung;278
6.2.3;Beschränkte Boltzmann-Maschinen;279
6.2.4;Die drei RBMs für das DBN trainieren;284
6.2.5;Das vollständige DBN;289
6.2.6;Wie Unsupervised Learning das Supervised Learning unterstützt;294
6.2.7;Bildklassifizierung mit LightGBM;299
6.2.8;Zusammenfassung;302
6.3;Kapitel 12: Generative Adversarial Networks;303
6.3.1;GANs – das Konzept;303
6.3.2;Deep Convolutional GANs;304
6.3.3;Convolutional Neural Networks;305
6.3.4;Noch einmal: DCGANs;309
6.3.5;MNIST-DCGAN in Aktion;314
6.3.6;Zusammenfassung;316
6.4;Kapitel 13: Zeitreihen-Clustering;319
6.4.1;EKG-Daten;320
6.4.2;Ansatz für Zeitreihen-Clustering;320
6.4.3;Zeitreihen-Clustering mit k-Shape auf ECGFiveDays;321
6.4.4;Zeitreihen-Clustering mit k-Shape auf ECG5000;327
6.4.5;Zeitreihen-Clustering mit k-Means auf ECG5000;332
6.4.6;Zeitreihen-Clustering mit hierarchischem DBSCAN auf ECG5000;333
6.4.7;Die Zeitreihen-Clustering-Algorithmen vergleichen;334
6.4.8;Zusammenfassung;340
6.5;Kapitel 14: Zum Schluss;341
6.5.1;Supervised Learning;342
6.5.2;Unsupervised Learning;342
6.5.3;Reinforcement Learning;344
6.5.4;Die vielversprechendsten Bereiche des Unsupervised Learning;345
6.5.5;Die Zukunft des Unsupervised Learning;346
6.5.6;Schlusswort;348
7;Index;349