1美元从零开始训练Bert,手把手教你优

大数据文摘出品

来源:GoogleColab

编译:武帅、曹培信

年0月,GoogleAI团队推出了Bert,可以说Bert一出生就自带光环。

在斯坦福大学机器阅读理解水平测试SQuAD.中,Bert在全部两个衡量指标上,全面超越人类表现。并且在另外种不同NLP测试中均创造了历史以来最好成绩,将GLUE基准提升7.6%,将MultiNLI的准确率提提升5.6%。

然而这个拥有2层神经网络的“多头怪”(这里指BERT-Base,BERT-Large有24层),在4个CloudTPU上需要训练4天(BERT-Large需要6个CloudTPU),如此高的训练成本让许多想尝试的同学望而却步。

不过,谷歌也给广大程序员带来了福音!我们可以借助谷歌云TPU训练Bert了!并且只需要花费美元,在GoogleColab上还出了完整的教程!

快跟文摘菌一起薅谷歌羊毛!

在本次实验中,我们将借助谷歌云,在任意文本数据上预训练当下最先进的NLP模型—BERT。

BERT模型起源:




转载请注明:http://www.guyukameng.com/aspnet/2020-08-04/11459.html

  • 上一篇文章:
  •   
  • 下一篇文章: 没有了