• Neu

Maschinelles Lernen in Python. Rezepte. Von der Datenaufbereitung bis zum Deep Learning. 2. Auflage - K. Gallatin

Index: KSZ-25310 EAN: 9788328908116

Die zweite Auflage des Buches Maschinelles Lernen in Python enthält mehr als 200 bewährte Rezepte, die auf den neuesten Versionen der Python-Bibliotheken beruhen. Sie enthalten vorgefertigten Code, der an die eigenen Bedürfnisse angepasst werden kann. Das Buch enthält fertige Beispiele für die Arbeit mit Daten in verschiedenen Formaten, Datenbanken und Datenspeichern sowie zahlreiche Ratschläge, die bei der Bewältigung eines breiten Spektrums von Problemen, von der Vorbereitung und dem Laden von Daten bis zum Training von Modellen und der Verwendung neuronaler Netze, nützlich sein können. Die Publikation eignet sich für alle, die Algorithmen des maschinellen Lernens in der Praxis umsetzen wollen.

Maschinelles Lernen in Python. Rezepte. Von der Datenaufbereitung bis zum Deep Learning. 2....
13,15 €
12,52 € zzgl. MwSt.
Erhältlich
Versand 24h
PayPal Bezahlung
Hersteller: Helion

Produktbeschreibung: Maschinelles Lernen in Python. Rezepte. Von der Datenaufbereitung bis zum Deep Learning. 2. Auflage - Kyle Gallatin, Chris Albon

Die zweite Auflage von Maschinelles Lernen in Python enthält über 200 bewährte Rezepte, die auf den neuesten Versionen der Python-Bibliotheken basieren. Sie enthalten vorgefertigten Code, der an die eigenen Bedürfnisse angepasst werden kann. Das Buch enthält fertige Beispiele für die Arbeit mit Daten in verschiedenen Formaten, Datenbanken und Datenspeichern sowie zahlreiche Ratschläge, die bei der Bewältigung eines breiten Spektrums von Problemen, von der Vorbereitung und dem Laden von Daten bis hin zum Training von Modellen und der Verwendung neuronaler Netze, hilfreich sein können. Die Publikation eignet sich für alle, die Algorithmen des maschinellen Lernens in der Praxis umsetzen wollen.

Uczenie maszynowe w Pythonie. Receptury. Od przygotowania danych do deep learningu. Wydanie II - K. Gallatin

Maschinelles Lernen in Python. Rezepte. Von der Datenaufbereitung bis zum Deep Learning. 2. Auflage - K. Gallatin.

Uczenie maszynowe w Pythonie. Receptury. Od przygotowania danych do deep learningu. Wydanie II - K. Gallatin

Maschinelles Lernen in Python. Recipes. Von der Datenaufbereitung bis zum Deep Learning.

Ein paar Worte über die Autoren

Kyle Gallatin ist ein Ingenieur, der Software für die Plattform für maschinelles Lernen bei Etsy entwickelt. Er hat auch als Datenwissenschaftler, Datenanalytiker und Ingenieur für maschinelles Lernen gearbeitet.

Dr. Chris Albon ist seit vielen Jahren als Datenanalytiker und Politikwissenschaftler tätig. Er arbeitet derzeit für Devoted Health und war außerdem leitender Datenanalyst beim kenianischen Startup BRCK.

Maschinelles Lernen - Rezepte

Maschinelles Lernen ist einer der interessantesten und am schnellsten wachsenden Bereiche der Informationstechnologie. Das Buch bietet Informationen über die Arbeit mit Daten in verschiedenen Formaten, Datenbanken und Datenspeichern. Außerdem werden Techniken zur Dimensionalitätsreduktion und Methoden zur Modellbewertung und -auswahl erörtert. Die Veröffentlichung enthält Formulierungen zu Themen wie lineare und logistische Regression, Entscheidungsbäume und Zufallswälder sowie k-nearest neighbour Algorithmen, Support Vector Machines (SVMs), naive Bayes'sche Klassifikation und Clustering.

Über das Buch

  • Originaltitel: Machine Learning with Python Cookbook: Praktische Lösungen von Preprocessing bis Deep Learning, 2.
  • Autoren: Kyle Gallatin, Dr. Chris Albon
  • Übersetzung: Robert Górczynski
  • ISBN: 978-83-289-0811-6
  • Ausgabe Jahr: 2024
  • Format: 165 x 235 mm
  • Bindung: weich
  • Anzahl der Seiten: 398
  • Herausgeber: Helion S.A.
Uczenie maszynowe w Pythonie. Receptury. Od przygotowania danych do deep learningu. Wydanie II - K. Gallatin

Das Buch ist für Programmierer bestimmt.

Inhaltsübersicht

Einführung

1. Vektor, Array und Tabelle

  1. 1.0 Einführung
  2. 1.1 Erstellen eines Vektors
  3. 1.2 Erstellen eines Arrays
  4. 1.3 Erstellen einer dünnbesetzten Matrix
  5. 1.4 Vorab-Zuweisung eines NumPy-Arrays
  6. 1.5 Abrufen von Elementen
  7. 1.6 Beschreiben eines Arrays
  8. 1.7 Durchführen von Operationen auf allen Elementen
  9. 1.8 Finden des Maximal- und Minimalwertes
  10. 1.9 Berechnung von Mittelwert, Varianz und Standardabweichung
  11. 1.10 Umformung eines Arrays
  12. 1.11. Transponieren eines Vektors oder einer Matrix
  13. 1.12. Abflachen einer Matrix
  14. 1.13. Finden der Zeile einer Matrix
  15. 1.14. Abrufen der Diagonale einer Matrix
  16. 1.15. Berechnen der Spur einer Matrix
  17. 1.16. Berechnen des Skalarprodukts
  18. 1.17. Addieren und Subtrahieren einer Matrix
  19. 1.18. Matrix-Multiplikation
  20. 1.19. Invertierung einer Matrix
  21. 1.20. Erzeugung von Zufallszahlen

2 Laden von Daten

  1. 2.0 Einführung
  2. 2.1 Laden eines Beispieldatensatzes
  3. 2.2 Erstellen eines simulierten Datensatzes
  4. 2.3 Laden einer CSV-Datei
  5. 2.4 Laden einer Excel-Datei
  6. 2.5 Laden einer JSON-Datei
  7. 2.6 Laden der Parquet-Datei
  8. 2.7 Laden der Avro-Datei
  9. 2.8 Abfrage einer SQLite-Datenbank
  10. 2.9 Abfrage einer entfernten SQL-Datenbank
  11. 2.10. das Laden von Daten aus Google Sheets
  12. 2.11. Laden von Daten aus einem S3-Bucket
  13. 2.12. Laden von unstrukturierten Daten

3 Aufbereitung von Daten

  1. 3.0 Einführung
  2. 3.1 Erstellen eines Datenrahmens
  3. 3.2 Beschreiben der Daten
  4. 3.3 Navigieren im Datenrahmen
  5. 3.4 Abrufen von Zeilen auf der Grundlage bestimmter Bedingungen
  6. 3.5 Sortieren von Werten
  7. 3.6 Ersetzen von Werten
  8. 3.7 Umbenennen einer Spalte
  9. 3.8 Minimum, Maximum, Summe, Durchschnitt und Anzahl der Elemente in einer Spalte ermitteln
  10. 3.9 Suche nach eindeutigen Werten
  11. 3.10. Umgang mit fehlenden Werten
  12. 3.11. Löschen von Spalten
  13. 3.12. Löschen einer Zeile
  14. 3.13. Löschen von doppelten Zeilen
  15. 3.14. Zeilen nach Wert gruppieren
  16. 3.15. Zeilen nach der Zeit gruppieren
  17. 3.16. Aggregieren von Operationen und Statistiken
  18. 3.17. Iterieren durch eine Spalte
  19. 3.18. Aufrufen von Funktionen für alle Spaltenelemente
  20. 3.19. Funktionsaufruf für eine Gruppe
  21. 3.20. Verkettung von DataFrame-Objekten
  22. 3.21. Verkettung von DataFrame-Objekten

4 Umgang mit numerischen Daten

  1. 4.0 Einführung
  2. 4.1 Skalierung eines Merkmals
  3. 4.2 Normierung des Merkmals
  4. 4.3 Normalisierung von Beobachtungen
  5. 4.4 Erzeugen von Polynom- und Interaktionsmerkmalen
  6. 4.5 Merkmalstransformation
  7. 4.6 Erkennung von Ausreißern
  8. 4.7 Behandlung von Ausreißern
  9. 4.8 Diskretisierung von Merkmalen
  10. 4.9 Clustering von Beobachtungen mittels Clustering
  11. 4.10. Löschen von Beobachtungen mit fehlenden Werten
  12. 4.11. Auffüllen von fehlenden Werten

5 Umgang mit kategorisierten Daten

  1. 5.0 Einführung
  2. 5.1 Kodierung von nominalen kategorisierenden Merkmalen
  3. 5.2 Codierung von ordinalen kategorisierenden Merkmalen
  4. 5.3 Kodierung von Merkmalswörterbüchern
  5. 5.4 Einfügen von fehlenden Klassenwerten
  6. 5.5 Umgang mit unausgewogenen Klassen

6. die Behandlung von Text

  1. 6.0 Einführung
  2. 6.1 Bereinigung von Text
  3. 6.2 Verarbeitung und Bereinigung von HTML-Daten
  4. 6.3 Entfernen von Interpunktionszeichen
  5. 6.4 Tokenisierung von Text
  6. 6.5 Entfernen von Wörtern mit geringer Bedeutung
  7. 6.6 Stemming von Wörtern
  8. 6.7 Part-of-Speech-Tagging
  9. 6.8 Erkennung von benannten Entitäten
  10. 6.9 Kodierung von Text mit dem Bag-of-Words-Modell
  11. 6.10 Bestimmung der Wortgewichtung
  12. 6.11. Verwendung von Textvektoren zur Berechnung der Textähnlichkeit in einer Suchanfrage
  13. 6.12. Verwendung eines Stimmungsanalyse-Klassifikators

7 Umgang mit Datum und Uhrzeit

  1. 7.0 Einführung
  2. 7.1 Konvertieren eines Textstrings in ein Datum
  3. 7.2 Umgang mit Zeitzonen
  4. 7.3 Abrufen von Datum und Uhrzeit
  5. 7.4 Aufteilung von Datumsdaten in mehrere Merkmale
  6. 7.5 Berechnen der Differenz zwischen Datumsangaben
  7. 7.6 Kodierung von Wochentagen
  8. 7.7 Erstellen eines zeitverzögerten Merkmals
  9. 7.8 Verwendung von verstrichenen Zeitfenstern
  10. 7.9 Umgang mit fehlenden Daten in einer Datenreihe, die Datums- und Zeitwerte enthält

8 Handhabung von Bildern

  1. 8.0 Einführung
  2. 8.1 Laden eines Bildes
  3. 8.2 Speichern eines Bildes
  4. 8.3 Ändern der Bildgröße
  5. 8.4 Beschneiden des Bildes
  6. 8.5 Unschärfe des Bildes
  7. 8.6 Schärfen des Bildes
  8. 8.7 Erhöhen des Kontrasts
  9. 8.8 Farben isolieren
  10. 8.9. Schwellenwertbildung des Bildes
  11. 8.10. Entfernen des Bildhintergrunds
  12. 8.11. Randerkennung
  13. 8.12. Erkennen von Ecken in einem Bild
  14. 8.13. Erstellen von Merkmalen beim maschinellen Lernen
  15. 8.14. Verwendung eines Farbhistogramms als Merkmal
  16. 8.15. Trainierte Einbettungen als Merkmale verwenden
  17. 8.16. Objekterkennung mit OpenCV
  18. 8.17. Klassifizierung von Bildern mit PyTorch

9 Verringerung der Dimensionalität durch Merkmalsextraktion

  1. 9.0 Einführung
  2. 9.1 Merkmalsreduktion mit Hilfe von Hauptkomponenten
  3. 9.2 Reduktion von Merkmalen bei linear unzerlegbaren Daten
  4. 9.3 Merkmalsreduktion durch Maximierung der Klassentrennbarkeit
  5. 9.4 Merkmalsreduktion durch Matrixzersetzung
  6. 9.5 Reduktion von Merkmalen in spärlichen Daten

Dimensionalitätsreduktion durch Merkmalsauswahl

  1. 10.0 Einführung
  2. 10.1 Schwellenwertbildung für die Varianz eines numerischen Merkmals
  3. 10.2 Schwellenwertbildung für die Varianz eines binären Merkmals
  4. 10.3 Umgang mit hochkorrelierten Merkmalen
  5. 10.4 Beseitigung irrelevanter Merkmale für die Klassifikation
  6. 10.5 Rekursive Eliminierung von Merkmalen

11. Modellbewertung

  1. 11.0 Einführung
  2. 11.1 Kreuzvalidierungsmodelle
  3. 11.2 Erstellung eines Basis-Regressionsmodells
  4. 11.3 Erstellung des Basisklassifikationsmodells
  5. 11.4 Auswertung der Vorhersagen eines binären Klassifikators
  6. 11.5 Auswertung des Schwellenwerts eines binären Klassifikators
  7. 11.6 Auswertung der Vorhersagen von Mehrklassen-Klassifikatoren
  8. 11.7 Visualisierung der Klassifikatorleistung
  9. 11.8 Bewertung des Regressionsmodells
  10. 11.9 Bewertung des Clustermodells
  11. 11.10 Festlegung von Nicht-Standardkoeffizienten für die Modellbewertung
  12. 11.11. Visualisierung der Auswirkung der Lernmengengröße
  13. 11.12. Erstellen eines Textberichts über den Bewertungsfaktor
  14. 11.13. Visualisierung der Auswirkung einer Änderung des Wertes von Hyperparametern

12. Modellauswahl

  1. 12.0 Einführung
  2. 12.1 Auswahl der besten Modelle mittels erschöpfender Suche
  3. 12.2 Auswahl der besten Modelle durch zufällige Suche
  4. 12.3 Auswahl der besten Modelle aus mehreren Algorithmen für maschinelles Lernen
  5. 12.4 Auswahl der besten Modelle in der Phase der Datenaufbereitung
  6. 12.5 Beschleunigung der Modellauswahl durch Parallelität
  7. 12.6 Beschleunigung der Modellauswahl durch algorithmusspezifische Methoden
  8. 12.7 Leistungsbewertung nach der Modellauswahl

13. Lineare Regression

  1. 13.0 Einführung
  2. 13.1 Bestimmung von Linien
  3. 13.2 Umgang mit dem Effekt der Interaktion
  4. 13.3 Bestimmung der nichtlinearen Abhängigkeit
  5. 13.4 Verringerung der Varianz durch Regularisierung
  6. 13.5 Merkmalsreduktion durch LASSO-Regression

14 Bäume und Wälder

  1. 14.0 Einführung
  2. 14.1 Training eines Entscheidungsbaum-Klassifikators
  3. 14.2 Training des Entscheidungsbaum-Regressors
  4. 14.3 Visualisierung des Entscheidungsbaummodells
  5. 14.4 Training des Random-Forest-Klassifikators
  6. 14.5 Training des Random-Forest-Regressors
  7. 14.6 Evaluierung des Random Forests mit Hilfe eines Out-of-Bag-Fehlerschätzers
  8. 14.7 Identifizierung von wichtigen Merkmalen im Random Forest
  9. 14.8 Auswahl von wichtigen Merkmalen in einem Random Forest
  10. 14.9 Umgang mit unausgewogenen Klassen
  11. 14.10 Kontrolle der Baumgröße
  12. 14.11. Verbesserung der Leistung durch Verstärkung
  13. 14.12. Training des XGBoost-Modells
  14. 14.13. Verbesserung der Echtzeitleistung mit LightGBM

15. k-Nächste-Nachbarn-Algorithmus

  1. 15.0 Einführung
  2. 15.1 Suche nach den nächsten Nachbarn von Beobachtungen
  3. 15.2 Erstellen des Klassifikators mit k nächsten Nachbarn
  4. 15.3 Bestimmen der besten Nachbarschaftsgröße
  5. 15.4 Erstellen eines Klassifikators für die nächsten Nachbarn auf der Grundlage des Radius
  6. 15.5 Finden der ungefähren nächsten Nachbarn
  7. 15.6 Auswertung der ungefähren nächstgelegenen Nachbarn

16 Logistische Regression

  1. 16.0 Einführung
  2. 16.1 Training eines binären Klassifikators
  3. 16.2 Training eines Multiklassen-Klassifikators
  4. 16.3 Verringerung der Varianz durch Regularisierung
  5. 16.4 Training eines Klassifikators auf sehr großen Datenmengen
  6. 16.5 Umgang mit unausgewogenen Klassen

17 Support-Vektor-Maschine

  1. 17.0 Einführung
  2. 17.1 Training eines linearen Klassifikators
  3. 17.2 Behandlung linear untrennbarer Klassen mit Hilfe von Kernel-Funktionen
  4. 17.3 Bestimmung der vorhergesagten Wahrscheinlichkeiten
  5. 17.4 Identifizierung von Support-Vektoren
  6. 17.5 Umgang mit unbalancierten Klassen

18 Naiver Bayes'scher Klassifikator

  1. 18.0 Einführung
  2. 18.1 Training eines Klassifikators für kontinuierliche Merkmale
  3. 18.2 Trainieren eines Klassifikators für diskrete oder abzählbare Merkmale
  4. 18.3 Trainieren eines naiven Bayes'schen Klassifikators für binäre Merkmale
  5. 18.4 Kalibrierung der Vorhersagewahrscheinlichkeit

19 Clustering

  1. 19.0 Einführung
  2. 19.1 Clustering mit k-Durchschnitten
  3. 19.2 Beschleunigtes Clustering mit k-Durchschnitten
  4. 19.3 Clustering mit dem Mean-Shift-Algorithmus
  5. 19.4 Clustering mit dem DBSCAN-Algorithmus
  6. 19.5 Clustering mittels hierarchischer Verknüpfung

20. Tensoren in PyTorch

  1. 20.0 Einführung
  2. 20.1 Erstellen eines Tensors
  3. 20.2 Erstellen eines Tensors aus NumPy heraus
  4. 20.3 Erstellung eines spärlichen Tensors
  5. 20.4 Auswählen von Tensorelementen
  6. 20.5 Beschreiben des Tensors
  7. 20.6. Operationen auf Tensorelementen durchführen
  8. 20.7 Einen Minimal- und Maximalwert finden
  9. 20.8 Ändern der Form eines Tensors
  10. 20.9 Transponieren eines Tensors
  11. 20.10 Abflachen eines Tensors
  12. 20.11. Berechnung des Skalarprodukts
  13. 20.12. Multiplikation von Tensoren

21 Neuronale Netze

  1. 21.0 Einführung
  2. 21.1 Verwendung der Autograd-Engine des PyTorch-Frameworks
  3. 21.2 Aufbereitung von Daten für ein neuronales Netz
  4. 21.3 Entwurf des neuronalen Netzes
  5. 21.4 Trainieren eines binären Klassifizierers
  6. 21.5 Trainieren eines Multiklassen-Klassifikators
  7. 21.6 Trainieren eines Regressors
  8. 21.7 Generierung von Vorhersagen
  9. 21.8 Visualisierung des Trainingsverlaufs
  10. 21.9 Verringerung der Überanpassung durch Gewichtsregulierung
  11. 21.10 Verringerung der Überanpassung durch frühzeitige Beendigung der Lerntechnik
  12. 21.11. Verringerung der Überanpassung mit Hilfe der Abbruchtechnik
  13. 21.12. Aufzeichnung des Lernfortschritts des Modells
  14. 21.13 Abstimmung des neuronalen Netzes
  15. 21.14. Visualisierung des neuronalen Netzes

22 Neuronale Netze für unstrukturierte Daten

  1. 22.0 Einführung
  2. 22.1 Training eines neuronalen Netzes zur Bildklassifizierung
  3. Training eines neuronalen Netzes für die Textklassifizierung
  4. Abstimmung des trainierten Modells für die Bildklassifizierung
  5. Abstimmen des trainierten Modells für die Textklassifizierung

23 Speichern, Laden und gemeinsame Nutzung trainierter Modelle

  1. 23.0 Einführung
  2. 23.1 Speichern und Laden eines scikit-learn Bibliotheksmodells
  3. 23.2 Speichern und Laden des TensorFlow Bibliotheksmodells
  4. 23.3 Speichern und Laden des PyTorch-Modells
  5. 23.4 Gemeinsame Nutzung von scikit-learn Modellen
  6. 23.5 TensorFlow-Modelle gemeinsam nutzen
  7. 23.6 Gemeinsame Nutzung von PyTorch-Modellen mit Seldon

Buch - Autor Kyle Gallatin, Chris Albon
Buch - ISBN 978-83-289-0811-6
Buch - Bindung miękka
Buchverleger Helion SA
Język programowania Python
Język programowania Programowanie
PAKETBREITE 16.5 cm
PAKETHÖHE 23.5 cm
PAKETTIEFE 2 cm
PAKETGEWICHT 0.623 kg

Seien Sie der Erste, der eine Frage zu diesem Produkt stellt!

Kunden, die diesen Artikel gekauft haben, kauften auch:

Produkte aus der gleichen Kategorie: