在线观看不卡亚洲电影_亚洲妓女99综合网_91青青青亚洲娱乐在线观看_日韩无码高清综合久久

鍍金池/ 問答/人工智能/ 既然加入激活函數(shù)是為了加入非線性因素,那么為什么可以使用ReLu呢?

既然加入激活函數(shù)是為了加入非線性因素,那么為什么可以使用ReLu呢?

1、max(0,x)的話在大于0的區(qū)間就是線性的,這樣還能起到加入非線性元素的作用嗎?
2、leaky ReLU作為ReLU的進階版為什么并沒有比ReLu常用呢?

回答
編輯回答
安淺陌

ReLu雖然在大于0的區(qū)間是線性的,在小于等于0的部分也是線性的,但是它整體不是線性的,因為不是一條直線。

多個線性操作的組合也是一個線性操作,沒有非線性激活,就相當于只有一個超平面去劃分空間。但是ReLu是非線性的,效果類似于劃分和折疊空間,組合多個(線性操作 + ReLu)就可以任意的劃分空間。

clipboard.png

很多ReLU改進版:leaky relu、prelu、elu、crelu……各有各的效果和性能,都不比為relu常見:

  1. 不一定有效,例如沒遇到dying relu,就沒必要用leaky relu,用了也不一定會更好
  2. 更復雜、性能不如relu

參考:

  1. How Do Neural Networks Work?
2017年1月12日 15:49
編輯回答
夢一場

同意樓上的回答,再補充一點吧:
關于線性非線性的解釋:在數(shù)學中,函數(shù)是線性函數(shù),那么這個函數(shù)就是一條直線;而剩下的所有情況都屬于非線性函數(shù)。
根據(jù)以上定義,折線也不屬于線性函數(shù),而Relu就是折線的一種,所以就是非線性了。。

2018年8月16日 01:47