百度也推出了类似Kaggle的比赛平台,每天免费赠送10小时GPU训练算力,配备工业级NVIDIA Tesla V100 GPU资源。不过目前只支持百度自己的PaddlePaddle(飞桨)框架,不能运行tensorflow、pytorch等其他框架。
百度AI Studio是针对AI学习者的在线一体化学习与实训社区. 本平台集合了AI教程, 深度学习样例工程, 各领域的经典数据集, 云端的超强运算及存储资源, 以及比赛平台和社区.
https://aistudio.baidu.com/aistudio/index
一、考虑将kaldi工具压缩后上传至数据集
kaldi工具编译完成后大约占用15G,考虑暂时跳过stage 0、1、2步
二、将已抽取的fbank语音特征打包上传至数据集
直接从调试stage 3步训练开始
github上发现一个转换模块paddle_torch,将其下载到/home/aistudio目录,利用 pip install . 命令安装。
%cd /home/aistudio/
!git clone https://github.com/zzz2010/paddle_torch.git
# 安装 paddle_to
%cd /home/aistudio/
!mkdir paddle_to
%cd paddle_to
!unzip -oq /home/aistudio/paddle_to.zip
!pip install .
用paddorch替换掉py文件中关于torch的调用。
执行.run.sh --stage 3 后发现错误
data.py文件中增加from paddle.fluid.io import DataLoader
修改class AudioDataLoader(DataLoader):
上传dump目录压缩包,新建数据集,添加标签时需要输入一次回车,上传完成后点击确定。
出现错误
替换成use_shared_memory
出现错误
nn.LayerNorm 用 fluid.dygraph.LayerNorm 替代:
import paddle.fluid as fluid
...
self.layer_norm_in = fluid.dygraph.LayerNorm(d_model)
出现新错误:
fluid.layers.exp 替代 paddorch.exp
fluid.layers.sin、fluid.layers.cos类似操作
又出现错误:
fluid.dygraph.Layer替换掉nn.Module
仍然未能解决问题,改回nn.Module,通过修改paddorch目录下nn/__ init __.py文件。并重新pip install paddorch
出现新错误
将mean改为m
卡在下面这个错误下好久
最终定位问题可能是LFRCollate类中的call,而内部的paddle.to_tensor无法正确完成。(不清楚原因,但是在call外部执行paddle.to_tensor正确。)
然后出现新问题
utils.py文件中size(0)改为shape[0]
转换 Tensor 的 dtype
import paddle
pad_mask = paddle.cast(pad_mask, dtype='int32')
利用np.append实现for循环
ys = []
for y in padded_input:
ys.append(y.shape[0])
利用masked_select只选mask对应的数据
x_data = [1,2,3,4]
x = paddle.to_tensor(x_data)
mask_data = [True, False, True, True]
mask = paddle.to_tensor(mask_data)
out = paddle.masked_select(x, mask)
# [1, 3, 4]
转换为 Tensor 格式
x = [1, 2, 4, 7]
x = paddle.to_tensor(x)
当tgt_emb_prj_weight_sharing = 1 时维度报错,发现是paddle、pytorch两者Linear()内部创建weight的维度刚好相反导致。
decoder.py文件中新增create_parameter行,将tgt_word_emb.emb.weight转置
if tgt_emb_prj_weight_sharing:
# Share the weight matrix between target word embedding & the final logit dense layer
self.tgt_word_emb.weight = paddle.static.create_parameter(shape=self.tgt_word_emb.weight.t().shape, dtype='float32')
self.tgt_word_prj.weight = self.tgt_word_emb.weight
self.x_logit_scale = (d_model ** 0.5)
else:
self.x_logit_scale = 1.
修改之后,仍报错误,暂时将tgt_emb_prj_weight_sharing 设置为0训练:
发现solver.py初始化时出现问题,paddle.to_tensor
修改为以下代码即可。
self.tr_loss = paddle.empty(shape=[self.epochs], dtype='float32')
self.cv_loss = paddle.empty(shape=[self.epochs], dtype='float32')
终于可以正常开始训练了!
结果保存出现问题,无法像pytorch那样直接打包保存package的tar格式文件,改用paddle.save替代。
(只能保存Model或Optimizer的state_dict())
paddle.save(self.model.state_dict(), file_path)
# torch.save(self.model.serialize(self.model, self.optimizer, epoch + 1,
# self.LFR_m, self.LFR_n,
# tr_loss=self.tr_loss,
# cv_loss=self.cv_loss),
# file_path)
参考资料
https://blog.csdn.net/weixin_48733317/article/details/108176827
https://blog.csdn.net/qq_32097577/article/details/112383234
https://blog.csdn.net/qq_32097577/article/details/112383360
https://blog.csdn.net/qq_32097577/article/details/112384179
https://aistudio.baidu.com/aistudio/course/introduce/1340