国产精品天干天干,亚洲毛片在线,日韩gay小鲜肉啪啪18禁,女同Gay自慰喷水

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

1-5神經(jīng)網(wǎng)絡(luò)基礎(chǔ)與多層感知機丨深度學(xué)習(xí)丨機器學(xué)習(xí)丨Python丨人工智能丨高等

2022-07-23 23:03 作者:冰糖燉子瑜  | 我要投稿

多層感知機

無激活函數(shù),網(wǎng)絡(luò)退化為單層網(wǎng)絡(luò)(矩陣乘法)

so 隱藏層加入激活函數(shù),可避免網(wǎng)絡(luò)退化


激活函數(shù)具備性質(zhì)

常見激活函數(shù):

  • Sigmoid(常用于二分類輸出的激活函數(shù),把實數(shù)域上的值映射到0-1區(qū)間,符合概率分布形式。其導(dǎo)函數(shù)有兩個飽和區(qū),由于梯度非常小,也就是其導(dǎo)函數(shù)的值非常小,神經(jīng)元進入了飽和狀態(tài)【其值接近于1】 ,當(dāng)大量神經(jīng)元位于飽和區(qū)時,梯度太小,將無法前向傳播梯度去更新其權(quán)重,使得模型訓(xùn)練更困難)


  • Tanh(雙曲正切,值域[-1,1],零均值,會有兩個飽和區(qū),梯度接近于0,不利于神經(jīng)網(wǎng)絡(luò)權(quán)重的更新,不利于梯度前向傳播)


  • ReLu y=x(不存在飽和區(qū),在卷積神經(jīng)網(wǎng)絡(luò)CNN總常見)

反向傳播作用、原理

梯度下降法

學(xué)習(xí)率


Loss 損失函數(shù)



交叉熵:衡量兩個概率分布的差異

softmax函數(shù)


正則化:減輕過擬合



Dropout:隨機失活








1-5神經(jīng)網(wǎng)絡(luò)基礎(chǔ)與多層感知機丨深度學(xué)習(xí)丨機器學(xué)習(xí)丨Python丨人工智能丨高等的評論 (共 條)

分享到微博請遵守國家法律
海城市| 马关县| 巴彦淖尔市| 蒲城县| 舟山市| 扶绥县| 拉孜县| 堆龙德庆县| 万全县| 保德县| 敖汉旗| 原平市| 长治县| 新民市| 古蔺县| 安化县| 济南市| 南岸区| 中方县| 石城县| 兰西县| 环江| 长顺县| 扶绥县| 阿克陶县| 大方县| 灵山县| 桐庐县| 泾源县| 广东省| 大姚县| 赣州市| 大足县| 安远县| 辉县市| 怀来县| 山西省| 灌阳县| 庆元县| 泸定县| 定州市|