当前位置: 首页> 旅游出行> 旅游> 正文

softmax是激活函数还是损失函数的简单介绍

  • 冷空气来袭冷空气来袭
  • 旅游
  • 2023-03-21 13:59:02
  • -
神经网络中的激活函数与损失函数 深入理解推导softmax交叉熵

激活函数与损失函数

线性模型的表达能力不够,激活函数增加神经网络模型的非线性,提升神经网络模型表达能力(数据往往线性不可分 )。

(1)sigmoid函数:

sigmoid函数(Logistic 函数),隐层神经元输出,取值范围(0,1),可以将一个实数映射到(0,1)的区间,可以做二分类。

缺点:

(3)softmax函数:

多分类神经网络输出:

(4)Leaky ReLU函数(PReLU):

(4)ELU函数:

(4)MaxOut函数:

Maxout是深度学习网络中一层网络,同池化层、卷积层,可以把maxout 看成网络的激活函数层,假设网络某一层的输入特征向量为:X=(x1,x2,……xd),输入是d个神经元。Maxout隐藏层每个神经元的计算公式如下:

其中,C表示代价,x表示样本,y表示实际值,a表示输出值,n表示样本的总数。

一个样本为例:

梯度下降算法:

不改变激活函数,二次代价函数改为交叉熵代价函数:

x表示样本,n表示样本的总数。计算参数w的梯度:

b的梯度:

Softmax、交叉熵损失函数及导数

这是一个简单的神经网络,输出层的激活函数为SoftMax,根据定义,输出层各节点的输出值为:

其中 是该节点的输入

是上一层节点的输出值, 是权重,所以:

再来看损失函数:

是训练实例的标签值:

显然,只有一个是正确分类,所以向量里只有一个分量值为1,其余都是0:

t是正确类别的下标,所以:

例如一个三分类的任务, 正确分类是第二个,输出结果是[0.3,0.5,0.2],所以这里的误差为:

再比如输出为[0.4,0.15,0.45]:

显然,输出是[0,1,0]时误差是0,现在要根据误差来求得 的梯度:

这里求的是 关于 的梯度,所以要分两种情况讨论,第一种是当 时:

所以:

而当 时, 并不影响 ,所以:

神经网络中的激活函数与损失函数 深入理解推导softmax交叉熵

softmax函数与交叉熵函数详解

一、二分类以上的任务与二分类任务在网络结构上的区别:

在逻辑回归模型中,模型最终输出的是样本属于正例的概率p,用1-p表示反例的概率,该模型在输出端具有单个输出结点。那么,对于多分类任务,输出端可以有多个结点,每个结点代表属于某一类的概率,满足约束条件:所有结点的概率和为1。这个约束条件将输出结点的输出值变成一个概率分布。【概率分布用于表述随机变量取值的概率规律,随机事件的所有可能值(随机变量)+对应的概率值,称为该事件的概率分布】

二、 softmax函数的使用

由一可知,多结点完成多分类任务需要满足的约束条件是:每个结点输出值范围是[0,1] 所有结点输出值的和等于1。

能够满足这个约束要求的函数就是softmax函数。softmax常作为最后一层的激活函数使用。

softmax包含两部分:soft和max(求数据的最大值),与soft相对的就是hard,hardmax的作用就是直接计算出数据的最大值(唯一性)。softmax会为每个类别计算出一个概率值

softmax的计算原理:

softmax函数表达式:

对softmax的求导:( 对每个输出结点求偏导)

分两种情况:i=j 与 i≠j  ,求偏导推导过程如下:

交叉熵损失函数与softmax之间的关系

在执行多分类任务中,经常是使用softmax激活函数和交叉熵损失函数的搭配方式。因为交叉熵描述了两个概率分布的差异,然而神经网络输出的是向量,所以需要softmax激活函数先将一个向量进行’归一化‘成概率分布的形式,然后再采用交叉熵损失函数对计算最终的loss。

softmax损失函数   重点:假设此时第i个输出节点为正确类别对应的输出节点,则 是正确类别对应输出节点的概率值,对 添加log运算,不影响函数的单调性,我们期望 的值越大越好(小于1),通常情况下使用梯度下降法来迭代求解,因此只需要为 添加一个负号就变成损失函数。现在,希望该损失函数越小越好。所以,softmax的损失函数式子为:

交叉熵损失函数与softmax损失函数的转换关系:

softmax损失函数是只针对正确类别对应的输出节点,将这个节点的softmax值最大化;而交叉熵损失函数是直接衡量真实分布和实际输出的分布之间的距离。

交叉熵式子: ,  代表真实样本的标签值。  (2)

在分类任务中,样本的真实标签通常表示为one-hot形式,比如三分类,第三个类别表示为[0,0,1],仅正确类别的位置为1,其他位置都为0,将[0,0,1]代入式子(2),最终结果为 。再对照式子(1),可以愉快的发现,(1)和(2)最终表达形式是一样的,那么,接下来计算损失函数的导数使用大家常见的式子(2),接下来将推导这个最终损失函数L对网络输出变量 的偏导数:

模拟一个三分类使用softmax与交叉熵的结果:

softmax+交叉熵损失函数对参数的更新规则,可以分为两步来记,第一步:每个节点的值减去对应的softmax结果;第二步,将真正类别的输出节点处的值加一。

参考以下文章:

多分类问题的交叉熵       一文详解softmax函数

[img]神经网络中的激活函数与损失函数 深入理解推导softmax交叉熵