Bewertung:

Derzeit gibt es keine Leserbewertungen. Die Bewertung basiert auf 6 Stimmen.
Hyperparameter Optimization in Machine Learning: Make Your Machine Learning and Deep Learning Models More Efficient
⬤ .
Kapitel 1: Hyperparameter.
Ziel des Kapitels: Einführung in die Bedeutung von Hyperparametern und deren Einfluss auf das Training des Modells. Außerdem wird erläutert, wie sich Hyperparameter auf allgemeine Algorithmen des maschinellen Lernens auswirken und welchen Wert wir je nach Trainingsdatensatz wählen sollten. Unterthemen1. Einführung zu Hyperparametern. 2. Warum müssen wir Hyperparameter abstimmen3. Spezifische Algorithmen und ihre Hyperparameter4. Cheatsheet zur Bestimmung von Hyperparametern einiger spezifischer Algorithmen.
Kapitel 2: Brute-Force-HyperparametertuningZiel des Kapitels: Die gängigen klassischen Hyperparametertuning-Methoden zu verstehen und sie von Grund auf zu implementieren, sowie die Scikit-Learn-Bibliothek dafür zu nutzen. Unter - Themen: 1. Hyperparameter-Abstimmung2. Exhaustive Hyperparameter-Tuning-Methoden3. Gittersuche4. Zufällige Suche5. Bewertung von Modellen bei der Abstimmung von Hyperparametern.
Kapitel 3: Verteilte Hyperparameter-OptimierungZiel des Kapitels: Handhabung größerer Datensätze und einer großen Anzahl von Hyperparametern mit kontinuierlichen Suchräumen unter Verwendung verteilter Algorithmen und verteilter Hyperparameter-Optimierungsmethoden, unter Verwendung der Dask-Bibliothek. Unter - Themen: 1. Warum wir verteilte Abstimmung brauchen2. Dask-Datenframes3. InkrementelleSucheCV.
Kapitel 4: Sequentielle modellbasierte globale Optimierung und ihre hierarchischen MethodenZiel des Kapitels: Ein ausführliches theoretisches Kapitel über SMBO-Methoden, die zur Optimierung von Hyperparametern Bayes'sche Techniken verwenden. Anders als bei der Gittersuche oder der Zufallssuche lernen sie aus ihrer vorherigen Iteration. Unter - Themen: 1. Sequentielle modellbasierte globale Optimierung2. Gaußscher Prozess-Ansatz3. Baumstrukturierter Parzen-Schätzer (TPE)
Kapitel 5: Verwendung von HyperOptZiel des Kapitels: Ein Kapitel, das sich auf die Bibliothek hyperopt konzentriert, die den im letzten Kapitel besprochenen Algorithmus TPE implementiert. Ziel ist es, den TPE-Algorithmus zur Optimierung von Hyperparametern zu verwenden und dem Leser zu verdeutlichen, warum er besser ist als andere Methoden. MongoDB wird zur Parallelisierung der Auswertungen verwendet. Besprechung von Hyperopt Scikit-Learn und Hyperas mit Beispielen. 1. Definieren einer Zielfunktion. 2. Erstellen des Suchraums. 3. HyperOpt ausführen. 4. Verwendung von MongoDB Trials für parallele Auswertungen. 5. HyperOpt SkLearn6. Hyperas.
Kapitel 6: Hyperparameter generierende Bedingung Generative Adversarial NeuralNetworks(HG-cGANs) und so weiter. Ziel des Kapitels: Es basiert auf einer Hypothese, wie man auf der Grundlage bestimmter Eigenschaften von Datensätzen neuronale Netze auf Metadaten trainieren und Hyperparameter für neue Datensätze generieren kann. Es fasst auch zusammen, wie diese neueren Methoden des Hyperparameter-Tunings der KI helfen können, sich weiterzuentwickeln. Unter-Themen: 1. Generierung von Metadaten2. Training von HG-cGANs3. KI und Hyperparameter-Tuning.