返回208. 真的吗?我不信(1 / 2)重生之AI教父首页

传统的循环类模型对比较长的句子处理能力较差,这在翻译任务中是比较影响用户体验的。相信尝试机翻过长篇文章的人都有类似的体会。

“我直接整篇文章复制黏贴进去,然后把翻译结果再复制黏贴出来。”

这是大多数人第一时间的想法,直接一步到位,这是坠吼的。

只可惜,如果这么做,最后翻译出来的结果只能是一团糟。只要是超过四五十字的文本,就很容易翻译得非常混乱了。

稍微聪明一点的人会发现,如果一段一段去复制翻译,得出的翻译结果就会好很多。

如果一句一句去翻译,质量又会再次上升一些。

虽然有点麻烦,操作也更繁琐了,但胜在不用动脑子。总归还是比自己辛辛苦苦哼哧哼哧地去翻译要轻松。

这里面有很大的一部分原因,就是翻译技术在长距离上容易遗忘。

“模型结构变得简单其实没什么奇怪的,数据的数量、质量以及训练的策略更加重要。让人眼花缭乱的那些算子们大部分情况下并不解决实际问题,只是在特定的任务上抽奖罢了。”

对于同事们的将信将疑,孟繁岐也能理解。若是大家都很容易能接受,那早就有人做了类似的事情了。

“思想和方法的改变才是根本的东西,比如Alex之后,许多人都在魔改那一套网络,各种算子改来改去,这个小一点那个大一点,这里多一点那里少一点。”

“缝缝补补只有非常微小的提升。”

“而残差链接则是全新的思想,应用了这個技术之后,各种算子反而不需要那么花里胡哨,就统一使用相同的设置和配置,一样能够力压群雄。”

伊利亚总体来说还是支持这种革命式的改变的,只是大家都觉得合理的细微变化,自然就无法取得真正的突破。

“我先试试看,不知道好不好用。”伊利亚是非常讲数据和实验结果。

别说是他觉得这个思路有机会,就算是他本人觉得这玩意不靠谱。只要能有一套理论逻辑把它解释通顺,伊利亚都愿意实现它尝试一下看看效果。

“不过,纯注意力机制的T方法在早期有不小的缺陷,模型小了效果不好,数据少了效果不好,训练方式不对效果还是不好。”

看伊利亚和几个将信将疑的同事开始了尝试,孟繁岐心中清楚,他们恐怕是很难直接取得成功的。但这并不是方法本身的问题,而是诸多因素一起的限制。

“他们到时候不信,这倒也没什么关系,等英伟达的那批泰坦显卡到了,我给他们整个大的。”

语言模型,就是要大!相比现在流行的办法,只要模型做大,别的技巧就算不用那也是降维打击。

切到自己的工作这边来,文字合成语音,实际上和语音识别技术是一对孪生兄弟。

一个是从文本生成语音,让机器说话,另一个则是识别语音成为文本,让机器在比较熟悉的语言领域处理这些信息。

孟繁岐既然动了手,自然两兄弟都打包一起做了。

先做公司有任务的文字生成语音这一边,这个技术当然不仅仅只限于在翻译界面上进行简单的发音。