原创 陈安东 Datawhale
Datawhale论文
分享:陈安东,哈工大,Datawhale成员
WhalePaper简介
由Datawhale团队成员发起,对目前学术论文中比较成熟的 Topic 和开源方案进行分享,通过一起阅读、分享论文学习的方式帮助大家更好地“高效+全面+自律”学习,让大家都有所收获和提升!方向包括自然语言处理(NLP)、计算机视觉(CV)、推荐(Res)等相关方向的论文解读和分享,后续将融入更多的方向。
开源地址:https://datawhalechina.github...
本期活动
嘉宾简介
陈安东,哈尔滨工业大学计算机系二年级博士生,研究方向大语言模型(LLM)的多语言方向。在ACL、EMNLP、ICAIL和TALLIP等AI领域顶级会议和期刊上发表多篇论文。Datawhale成员,大模型基础和理论开源教程So-Large-LM发起人,目前获得了1.4K stars。
Github地址:https://github.com/datawhalec...
公众号专栏:大航海图鉴:大模型全指南系列
分享详情
论文题目:DUAL-REFLECT: Enhancing Large Language Models for Reflective Translation through Dual Learning Feedback Mechanisms
分享方向:大模型多语言能力
分享大纲:
- 大模型有望成为这个时代的巴别塔?
- 当前大模型多语言能力局限性
- 机器翻译与大模型翻译范式的迁移
- 向“信达雅”的多语言能力前进
论文简介:
最近,通过自我反思增强的大型语言模型(LLMs)在机器翻译上取得了惊艳的表现。其核心思想是基于LLMs的反思能力优化生成的翻译结果。然而,现有的自我反思方法缺乏有效的反馈信息,限制了翻译性能。
为解决这一问题,我们引入了一个双重反思框架(DUAL-REFLECT),利用翻译任务的对偶学习特性提供有效反馈信号,从而增强模型的自我反思能力并提升翻译表现。这种方法在各种翻译任务中提高了翻译的准确性,并且增强了消除歧义方面的能力。
分享地址:#腾讯会议:891-723-748
分享时间:2024年5月30日(周四)19点30
Paper议程:分享45分钟,提问环节不限时
本场分享会在b站同步直播
请关注: 二次元的Datawhale
进群参与
群满在公众号后台回复“paper”
一起“点赞”三连↓
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。