close

不知道這是關於什麼的. 我看起來很像是關於類神經網路(neural network)中會出現的文字.  neural network 可以看成一個黑盒子(black box), 我們不知道裡面的構造或結構, 只知道某些輸入值(input data set), 會產生特定輸出值(output). 根據手上有的input-output資料, 來訓練(train)這個neural network, 手上的input-output資料越多, 訓練(train)出來的network就會越準, 或是說, 這個network就會學到(learn)更準確的判斷, 這樣如果將來我們有一個input, 就可透過這個已經訓練好的network來運算output將會是什麼.  一般是應用在無法知道那個黑盒子的公式的情況. 比如股市分析, 你可以把所有的已知input(比如前一日收盤指數, 公司盈餘, ...)輸入, 而得出明日股票會漲還是會跌. 

在neural network中, 我們會根據被模擬的對象來決定要放幾個神經元進去該網路中. 如果放進去的神經元太少, 那訓練出來的neural network就會不足以代表我們欲模擬對象的行為模式; 如果放進去的神經元太多, 那訓練出來的network會太複雜, 而且可能會同時學到一些其他的奇怪的雜訊(noise). 

原PO該段文字可能是在講, 設計的太複雜的類神經網路會發生的現象, 可能的翻譯如下:

 如果一個類神經網路比手上的問題更加複雜, 或是比用來訓練的資料所需之網路更加複雜, 那麼訓練出來的網路, 所學到的不僅有隱含的行為, 而且還會學到對原本用來訓練的有限資料來說很奇怪的雜訊. 

備註:
簡單的說, 如果只是要訓練 X平方+Y平方=1 這個圓形, 神經網路卻設計得太複雜, 訓練出來的結果, 除了會學到這個圓形外, 還會學到一些(對原本訓練資料來說)奇怪的東西 .

arrow
arrow
    全站熱搜
    創作者介紹
    創作者 consta21 的頭像
    consta21

    consta21

    consta21 發表在 痞客邦 留言(0) 人氣()