Литература: оптимизация гиперпараметров других алгоритмов - HollowPrincess/GradBoostOptim GitHub Wiki

:no_entry: - нет доступа

Статья Обзор Комментарий Источник Метки
1 Gradient-Based Optimization of Hyperparameters Статья в открытом доступе. Автор предлагает производить оптимизацию гиперпараметров при помощи градиента критерия выбора модели относительно гиперпараметров. Применение: линейная регрессия, нестационарные временные ряды. ResearchGate оптимизация гиперпараметров
2 Adaptive optimization of hyperparameters in L2-regularised logistic regression Авторы предлагают метод адаптивной оптимизации гиперпараметров в модели логистической регрессии ResearchGate оптимизация гиперпараметров
3 :no_entry: Fast Optimization of Hyperparameters for Support Vector Regression Models with Highly Predictive Ability Запрос на доступ отправлен. В работе предлагается метод поиска гиперпараметров для регрессии опорных векторов. Предложенный метод основывается на поиске по сетке, перекрестной проверке и теоретических методах. После того, как значения двух гиперпараметров определены теоретически, каждый гиперпараметр оптимизируется независимо с помощью сетки и перекрестной проверки. ResearchGate оптимизация гиперпараметров
4 :no_entry:Using meta-learning to initialize Bayesian optimization of hyperparameters В статье рассматривается возможность ускорения метода байесовской оптимизации гипер параметров на основе последовательной модели (SMBO), учитывая опыт оптимизации на других данных. ResearchGate оптимизация гиперпараметров
5 :no_entry:Combination of Hyperband and Bayesian Optimization for Hyperparameter Optimization in Deep Learning Запрос на доступ отправлен. Авторы комбинирют метод Hyperband и байесовской оптимизации для оптимизации гиперпараметров нейросетей. ResearchGate оптимизация гиперпараметров, нейросети
6 :no_entry:Hyperparameter Optimization Запрос отправлен. бзор методов оптимизации гиперпараметров. ResearchGate оптимизация гиперпараметров
7 :no_entry:Towards an empirical hyperparameters optimization in CNN Запрос отправлен. Обзор адаптивных методов оптимизации гиперпараметров (Adadelta и Adam) для нейросетей. ResearchGate оптимизация гиперпараметров, нейросеть
8 :no_entry:Distributed tuning of machine learning algorithms using MapReduce Clusters Надо поискать эту статью. Использование MapReduce для оптимизации гиперпараметров. GoogleScholar оптимизация гиперпараметров, mapreduce