Xavier:
基本思想是通过网络层时,输入和输出的方差相同,包括前向传播和后向传播。
如果初始化值很小,那么随着层数的传递,方差就会趋于0,此时输入值 也变得越来越小,在sigmoid上就是在0附近,接近于线性,失去了非线性
如果初始值很大,那么随着层数的传递,方差会迅速增加,此时输入值变得很大,而sigmoid在大输入值写倒数趋近于0,反向传播时会遇到梯度消失的问题
感觉和BN的使用目的是类似的
np.newaxis:插入新维度
list和ndarray互转:
list 转 numpy:np.array(a)
ndarray 转 list:a.tolist()
numpy.ndarray与字符串互转:
str=arr.tostring()
arr=np.frombuffer(string, dtype=np.float32)
pydub的学习参考:https://blog.csdn.net/Debatrix/article/details/59058762
pyworld使用参考:https://blog.csdn.net/m0_43395719/article/details/107930075