Какая именно формула нормализации используется при генерации imageInputLayer в Deep Learning Toolbox
Коллеги, подскажите в проблемке: требуется полностью программно повторить работу матлабошной функции semanticseg(im, net), для которой в самом же матлабе уже обучил небольшую сеть из 10 слоёв. Сама сеть хорошо работает, но хочу её перевести в ПЛИС. Но надо точно знать формулы работы сети для каждого слоя.
Уже много понял и практически со всем разобрался. Но столкнулся с тем, что при загрузке цветного изображения в первый слой imageInputLayer в нём оно подвергается нормализации. В документации указанно, что по умолчанию используется 'zerocenter' (в котором от всех значений вычитается среднее значение, подсчитанное как mean). Однако, при численном сравнении моих результатов и уже подсчитанных матлабом есть разница в 10-20%. Применяя второй метод 'zscore' (которое математически можно представить как (img - img.mean()) / img.std() в Python или normalize(double(im),'zscore') в МАТЛАБе) тоже ничего не получилось :( Может, у кого есть идея?
Ответы