超参数优化与NNI(HPO,Hyper-parameter optimization)
一、超参数优化简介超参数优化 (HPO) 是 Hyper-parameter optimization的缩写,中文可以翻译为自动机器学习,我比较喜欢叫它“机器学习自动化”,更加接近人们所津津乐道的通用人工智能吧。二、AutoML特性从比较出名的开源Auto平台、互联网大厂AutoML云产品,以及AI公司的AutoML软件来看...
一、超参数优化(HPO)简介
超参数优化 (HPO) 是 Hyper-parameter optimization的缩写,是指不是依赖人工调参,而是通过一定算法找出机器学习/深度学
习中最优/次优超参数的一类方法。HPO的本质是是生成多组超参数,一次次地去训练,根据获取到的评价指标等调节再生成超参数
组再训练,依此类推。从使用过的情况来看,使用HPO的代价较高,尤其是对复杂深度模型或中小企业来说。
AutoML说明: https://mp.weixin.qq.com/s/cfFcMyabJjj4qPoBTvvj6A
二、超参数优化(HPO)算法开源工具
超参数优化(HPO)算法伴随着机器学习的发展而发展而来,至今已经发展得比较成熟了。
github项目等也比较多,一类是专注于HPO算法的。如hyperopt, advisor,scikit-optimize等;另外一类是大而全的AutoML,
超参数优化HPO只是其中一部分,如nni, katib, autokeras, auto-sklearn等。
可以发现,python版的超参优化HPO颇受sklearn影响,毕竟是是最受欢迎的机器学习算法工具了。
三、超参数优化(HPO)算法简介
从开源项目来看,超参数优化(HPO)算法一般都包括三类:
1. 暴力搜索类: 随机搜索(random search)、网格搜索(grid search)、自定义(custom)
2. 启发式搜索: 进化算法(Naïve Evolution, NE)、模拟退火算法(Simulate Anneal, SA)、遗传算法(Genetic Algorithm,
GA)、粒子群算法(Particle Swarm Optimization, PSO)等自然计算算法、Hyperband
3. 贝叶斯优化: BOHB、TPE、SMAC、Metis、GP
希望对你有所帮助
更多推荐
所有评论(0)