1.torch.optim.Adam(parameters, lr)什么含义
已知parameters代表每个神经网络的参数矩阵,lr代表学习率
2.pytorch 常用的 loss function
nn.L1Loss
nn.MSELoss()
nn.BCELoss()
nn.CrossEntropyLoss
该函数用于多分类,不需要加softmax层
BCELoss是二分类使用的交叉熵,用之前需要在该层前面加上Sigmoid函数。
pytorch 常用的 loss function/f156207495/article/details/88658009?msclkid=06e05464c27911ec9b8a17769c0b7d6a
3. 有个很无语的事,测试集和标签都是按顺序的没有打乱,结果测试集和验证集没有重合的标签,然后验证集的标签一个都没预测出来,准确率是0,服了自己了。所以大家分数据集的时候一定不要忘记shuffle
4.Binary Cross-Entropy 作为损失函数能够度量分类的准确性。降低loss的过程就使得
y=1的样本,得到的预测概率p(y)变大y=0的样本,得到的预测概率p(y)变小