<!--go-->
“給神經網路提供輸入向量,讓它根據自己的引數矩陣輸出對應的輸出值,我們將之稱為前向傳播。用數學語言來描述就是這樣。”
“記第L層的第i個神經元的啟用值為a(l)i,引數記為行向量(·)(l)i的話,如果這一層有s個神經元,那麼這一層行向量的維數就有sl+1維……”
“這個多出來的1是從哪兒來的?”周至又開始問問題了。
“因為我們要設定偏置單元。所以這一層的行向量就會是一個巨大的矩陣,它的行是S(l+1),列是Sl+1。”
“這還只是其中的一層,”周至有點明白了:“之前你說過,這種每相鄰兩層的神經元全部互相聯接的方式,你們稱為全連線。其實最終的結果,是輸入層透過非線性啟用函式穿透所有隱藏層之後的最終結果,也就是說,它是經過無數個矩陣疊加運算之後的結果,是吧?”
“差不多可以這樣理解。”麥小苗說道:“不過需要注意的是神經網路中的權重和偏置這些引數是機器自己學習出來的,它們被稱為模型引數;而神經網路一共有幾層、每層隱藏層有多少節點等等,這些引數是預先指定的,這種被預先指定且在學習過程中不改變的引數被稱為超引數。”
“這還只是單輸出的情況。如果我們要解決多元分類輸出的問題的話,運算結構就會變得更加的複雜,成為以上模型矩陣的再一次矩陣疊加。”
Loading...
未載入完,嘗試【重新整理】or【關閉小說模式】or【關閉廣告遮蔽】。
嘗試更換【Firefox瀏覽器】or【Chrome谷歌瀏覽器】開啟多多收藏!
移動流量偶爾打不開,可以切換電信、聯通、Wifi。
收藏網址:www.peakbooks.cc
(>人<;)