Resnet的加法變成減法會怎樣?-Pre-activation的輸出是沒有符號bias的

不會怎么樣,效果應該差啊不多。Pre-activation的輸出是沒有符號bias的,因此加和減并沒有任何區別。ResNet的目的是為了使每個residualblock可以盡可能的接近identityoperator,顯然identity無論是加一個還是減一個無符號bias的量都可以做到。

0 条回复 A文章作者 M管理員
    暫無討論,說說你的看法吧