流模型。
既然如此,就把第一次的模型命名为Transformer(base),意为基础版本的Transformer,而把第二次添加参数后的模型命名为Transf),意为加强版本的Transformer。
额,我算不算自己给自己打补丁?
苏飞突然感觉自己的做法有些奇怪,搞得像是游戏代码的维修老师傅一样。
因为论文的框架之前就已经打好了,这次苏飞直接做好图和数据,添加进论文里,《Attention is all you need》这篇论文就完稿了。
苏飞登录ACL的收稿网站,直接把论文和代码库一起传了上去。
ACL这个顶会的审稿效率比AAAI要高得多。
ACL采用滚动审稿机制,这个审稿机制能保证投稿人的论文在一个月内被审稿,这也就保证了不会出现一篇论文因为迟迟不审稿而错过截止日期的尴尬情况。
也正是有这种滚动审稿机制,原本许多想投AAAI的论文转投到了ACL这边,就是因为这边有保障啊。
投到AAAI那边,审稿时间就是看审稿人心情,质量好的论文还好说,只要能一轮完成审稿,几乎都赶得上时间,但问题是投这种顶会的很多论文都是不上不下,卡在及格线边缘的,这些论文赶不赶得上截止日期纯凭运气。
随着苏飞提交成功,论文状态被修改为“已分配AC”,意思是苏飞的论文被提交给了领域主席,ACL的领域主席和AAAI的技术编辑很像,就是先初筛一遍这篇论文,如果是垃圾论文,那就没必要转交给审稿人了,顺便再查下实验内容有没有违反道德或者论文表述过不过关之类的。
‘系统,使用插队卡。’
上次苏飞买了一张插队卡还没用,这次直接就用上了。
由于ACL的独特机制,他倒不担心会因为审稿问题而错过截止日期,但如果能尽快出结果他也是十分乐意的。
差不多十几分钟,苏飞的邮箱就收到了提示,他的论文状态被修改为“正在审稿”。
不过,这个过程估计得蛮久的,审稿的流程上,ACL和AAAI有些类似,也是采用完全的盲审制度,但与AAAI不同的是,ACL只会聘请三位审稿人,一轮审完,然后最神奇的来了,最后把审稿意见还得返还给领域主席,由审稿人和领域主席一起讨论,决定录不录用这篇论文,这个讨论的过程可能会耗点时间。
前前后后搞了差不多一个多月的Transformer终于被投了出去,苏飞也是伸了个懒腰。
这篇论文他倾注的心血不可谓不多啊,系统的两张灵感激发卡,又死皮赖脸地向老赵借了一个月的服务器使用权限,而且还把这服务器给霸权了。
为了让模型的性能达到最佳,他两次调参实验,因为他不想让Transformer像ELMo一样,在实验任务和一些细节上显得粗糙,他想尽量让这个模型达到完美。
近十年来,有多少深度学习和机器学习的专家们都在尝试用注意力机制做文章,每个人都知道注意力机制有大用,但又都无法将它的功效发挥的淋漓尽致。
注意力机制就像是深度学习这颗大树上的诱人的粉嫩果实,每个人都想踮起脚尖去采摘这水嫩嫩的嫣红,然而从没人真正品尝到它的魅力。
而今天,苏飞算是把这果实连枝带叶一起带走了。