内容损失与风格损失

内容损失与风格损失

在画风迁移与超分辨率重建以及图像修复等视觉领域, 内容损失又称感知损失, 使用的较多, 在此做个记录, 同时也记录下风格损失 内容损失与提取计算 内容损

深度学习归一化: BN,LN,IN,GN

深度学习中的常见归一化方法主要有: batch Normalization, layer Normalization, instance Normalization, group Normalization. 神经网络学习过程的本质就是为了学习数据分布, 如果没有做归一化处理, 那么每一批次训练数据的分
GRU小结

GRU小结

GRU(Gated Recurrent Unit)即门控循环单元,是LSTM的变体. GRU保留了LSTM对梯度消失问题的抗力,但内部更简单. LSTM有:输入门,遗忘门,输出门,