欢迎来到我的博客(*^▽^*)
04
02
Pytorch里的CrossEntropyLoss详解 Pytorch里的CrossEntropyLoss详解
在使用Pytorch时经常碰见这些函数cross_entropy,CrossEntropyLoss, log_softmax, LogSoftmax。看得我头大,所以整理本文以备日后查阅。 首先要知道上面提到的这些函数一部分是来自于to
2021-04-02
03
29
27
25
22
l1和l2正则化的区别 l1和l2正则化的区别
L1正则化和L2正则化是控制模型复杂度和限制过拟合的常用方法。L1正则化和L2正则化之间有一些有趣的比较。我发现这些视觉上的对比和它们的解释很容易理解。 1. 为什么需要正则化?首先,让我们以线性回归为例。假设Y和一大堆其他Factor之间
2021-03-22
22
02
24
22
22
21
21
跑实验中遇到的Bug 跑实验中遇到的Bug
model.to(device)十分缓慢跑eeqa这个项目,运行到model.to(device)这行代码的时候,十分缓慢。按理来说,以往的项目model很快就能加载到GPU上的。 后来经过谷歌搜索之后,发现可能的原因是:eeqa这个项目使
2021-02-21 CarlYoung
20
Linux常用命令 Linux常用命令
sed经常需要将windows下的脚本里面的换行符转变成linux下的换行符,使用下面指令: sed -e 's/.$//' %s > tmp;cat tmp > %s --train_file ../proc/data/ac
2021-02-20 CarlYoung
4 / 11