关灯

Softmax和交叉熵的深度解析和Python实现

[复制链接]
admin 发表于 2019-1-20 13:08:05 | 显示全部楼层 |阅读模式 打印 上一主题 下一主题
 

【导读】如果你稍微了解一点深度学习的知识或者看过深度学习的在线课程,你就一定知道最基础的多分类问题。当中,老师一定会告诉你在全连接层后面应该加上 Softmax 函数,如果正常情况下(不正常情况指的是类别超级多的时候)用交叉熵函数作为损失函数,你就一定可以得到一个让你基本满意的结果。而且,现在很多开源的深度学习框架,直接就把各种损失函数写好了(甚至在 Pytorch中 CrossEntropyLoss 已经把 Softmax函数集合进去了),你根本不用操心怎么去实现他们,但是你真的理解为什么要这么做吗?这篇小文就将告诉你:Softmax 是如何把 CNN 的输出转变成概率,以及交叉熵是如何为优化过程提供度量。为了让读者能够深入理解,我们将会用 Python 一一实现他们。

 

Softmax函数

Softmax 函数接收一个 这N维向量作为输入,然后把每一维的值转换成(0,1)之间的一个实数,它的公式如下面所示:

 

1532922730798858330.jpg

 

正如它的名字一样,Softmax 函数是一个“软”的最大值函数,它不是直接取输出的最大值那一类作为分类结果,同时也会考虑到其它相对来说较小的一类的输出。说白了,Softmax 可以将全连接层的输出映射成一个概率的分布,我们训练的目标就是让属于第k类的样本经过 Softmax 以后,第 k 类的概率越大越好。这就使得分类问题能更好的用统计学方法去解释了。

 

使用 Python,我们可以这么去实现 Softmax 函数:

1532922723734465693.jpg

 

我们需要注意的是,在 numpy 中浮点类型是有数值上的限制的,对于

  1. float64
复制代码
,它的上限是  1532922717586009854.jpg 。对于指数函数来说,这个限制很容易就会被打破,如果这种情况发生了 python 便会返回 
  1. nan
复制代码
。为了让 Softmax 函数在数值计算层面更加稳定,避免它的输出出现 
  1. nan
复制代码
这种情况,一个很简单的方法就是对输入向量做一步归一化操作,仅仅需要在分子和分母上同乘一个常数 
  1. C
复制代码
,如下面的式子所示

1532922710650702916.jpg

 

理论上来说,我们可以选择任意一个值作为,但是一般我们会选择 1532922695138423184.jpg ,通过这种方法就使得原本非常大的指数结果变成0,避免出现 nan的情况。同样使用 Python,改进以后的 Softmax 函数可以这样写:

1532922687538070202.jpg

    Softmax 函数的导数推倒过程

通过上文我们了解到,Softmax 函数可以将样本的输出转变成概率密度函数,由于这一很好的特性,我们就可以把它加装在神经网络的最后一层,随着迭代过程的不断深入,它最理想的输出就是样本类别的 One-hot 表示形式。进一步我们来了解一下如何去计算 Softmax 函数的梯度(虽然有了深度学习框架这些都不需要你去一步步推导,但为了将来能设计出新的层,理解反向传播的原理还是很重要的),对 Softmax 的参数求导:

 

1532922677042336639.jpg

根据商的求导法则,对于  其导数为   。对于我们来说。在 中,  一直都是 ,但是在 中,当且仅当  的时候, 才为 1532922582720687650.jpg 。具体的过程,我们看一下下面的步骤:

 

如果  1532922573950543578.jpg

1532922563190433610.jpg

 

 

如果 1532922555616253844.jpg

1532922547357402907.jpg

 

所以 Softmax 函数的导数如下面所示:

1532922532038832482.jpg

 

 

交叉熵损失函数

下面我们来看一下对模型优化真正起到作用的损失函数——交叉熵损失函数。交叉熵函数体现了模型输出的概率分布和真实样本的概率分布的相似程度。它的定义式就是这样: 

1532922521559641522.jpg

 

在分类问题中,交叉熵函数已经大范围的代替了均方误差函数。也就是说,在输出为概率分布的情况下,就可以使用交叉熵函数作为理想与现实的度量。这也就是为什么它可以作为有 Softmax 函数激活的神经网络的损失函数。我们来看一下,在 Python 中是如何实现交叉熵函数的:

1532922513361990993.jpg

    交叉熵损失函数的求导过程

就像我们之前所说的,Softmax 函数和交叉熵损失函数是一对好兄弟,我们用上之前推导 Softmax 函数导数的结论,配合求导交叉熵函数的导数:

 

1532922505224556453.jpg

 

加上 Softmax 函数的导数:

 

1532922498492256757.jpg

 

 

y 代表标签的 One-hot 编码,因此 ,并且  1532922484206323276.jpg 。因此我们就可以得到:

1532922473582326199.jpg

 

可以看到,这个结果真的太简单了,不得不佩服发明它的大神们!最后,我们把它转换成代码:

1532922465769659462.jpg

 

 

小结

需要注意的是,正如我之前提到过的,在许多开源的深度学习框架中,Softmax 函数被集成到所谓的 CrossEntropyLoss 函数中。比如 Pytorch 的说明文档,就明确地告诉读者 CrossEntropyLoss 这个损失函数是 Log-Softmax 函数和负对数似然函数(NLLoss)的组合,也就是说当你使用它的时候,没有必要再在全连接层后面加入 Softmax 函数。还有许多文章中会提到 SoftmaxLoss,其实它就是 Softmax 函数和交叉熵函数的组合,跟我们说的 CrossEntropyLoss 函数是一个意思,这点需要读者自行分辨即可。

回复

使用道具 举报

 
*滑块验证:
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则


1关注

0粉丝

1603帖子

排行榜

关注我们:微信订阅号

官方微信

APP下载

全国服务热线:

4000-018-018

公司地址:上海市嘉定区银翔路655号B区1068室

运营中心:成都市锦江区东华正街42号广电仕百达国际大厦25楼

邮编:610066 Email:3318850993#qq.com

Copyright   ©2015-2016  比特趋势Powered by©Discuz!技术支持:迪恩网络