PyTroch加载数据集
使用mini-batch的原因
SGD(随机梯度下降):只使用一个样本,具有较好的随机性,可以克服鞍点的问题,但是训练的时间较长
BATCH:最大化利用向量计算的优势,提升计算速率,但性能上会遇到问题。
解决办法:使用mini-batch来均衡速率与性能。
DataLoader工作过程
使用shuffle打乱数据,再将数据分成mini-batch大小
1 | # -*- coding: UTF-8 -*- |
我们一路奋战,不是为了改变世界,而是为了不让世界改变我们
SGD(随机梯度下降):只使用一个样本,具有较好的随机性,可以克服鞍点的问题,但是训练的时间较长
BATCH:最大化利用向量计算的优势,提升计算速率,但性能上会遇到问题。
解决办法:使用mini-batch来均衡速率与性能。
使用shuffle打乱数据,再将数据分成mini-batch大小
1 | # -*- coding: UTF-8 -*- |
微信支付