科学网

 找回密码
  注册

tag 标签: 激活函数

相关帖子

版块 作者 回复/查看 最后发表

没有相关内容

相关日志

[转载]进行深度学习时,如何选择激活函数?
dalianwang 2019-6-16 04:22
How to choose the right activation function? The activation function is decided depending upon the objective of the problem statement and the concerned properties. Some of the inferences are as follows: Sigmoid functions work very well in the case of shallow networks and binary classifiers. Deeper networks may lead to vanishing gradients. The ReLU function is the most widely used, and try using Leaky ReLU to avoid the case of dead neurons. Thus, start with ReLU, then move to another activation function if ReLU doesn't provide good results. Use softmax in the outer layer for the multi-class classification. Avoid using ReLU in the outer layer.
个人分类: 机器学习|1411 次阅读|0 个评论
人工神经网络本质
热度 2 wonsure 2015-5-2 18:44
人工神经网络是模拟动物神经网络的功能、特征、结构而建立的一种数学模型,实际就是一个数学表达式。 人工神经网络的节点数、层数、权重、激活函数参数等都是待定或者可调参数,可通过一定的算法学习得到。通常优化的是权重和激活函数参数,优化方法有梯度法(BP算法是一种具体推广展开)、遗传算法等。 人工神经网络可作为万能逼近器,此时其表达式可看做是拟合函数公式,适用于线性和非线性拟合,这种情况形下需要采用有监督学习算法,即需要有由输入和输出组成的训练样本数据。控制系统中用的神经网络控制器实际是(动态或静态)拟合器,其泛化或预测能力较强。 激活函数可以简单也可以复杂,常用的是带有指数项的函数。常规的灰预测公式是带有一个指数项的表达式,所以灰预测精度一般不如神经网络,但比神经网络简单。 如果激活函数采用三角形或者梯形,神经网络聚类性能通常不劣于灰色变权或者定权聚类,但结构和层数需要经验确定,没有灰色聚类简单。这时,神经网络和模糊方法在某方面是相通的。 如果激活函数采用可拓关联函数,则可称为可拓神经网络,与可拓学某些方法有相似之处。 还有将激活函数取为正弦函数和余弦函数的。 激活函数如果取为小波基函数,称为小波神经网络;如果取为径向基(RBF)函数,称为RBF网络,这是大家熟知的。 当然神经网络有多种结构和形式,结构的改变,其称谓和原理可能也会改变。
12308 次阅读|4 个评论

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-6-17 07:09

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部