原创 陈安东 Datawhale

 Datawhale论文 

分享:陈安东,哈工大,Datawhale成员

WhalePaper简介

由Datawhale团队成员发起,对目前学术论文中比较成熟的 Topic 和开源方案进行分享,通过一起阅读、分享论文学习的方式帮助大家更好地“高效+全面+自律”学习,让大家都有所收获和提升!方向包括自然语言处理(NLP)、计算机视觉(CV)、推荐(Res)等相关方向的论文解读和分享,后续将融入更多的方向。

开源地址:https://datawhalechina.github...

本期活动

嘉宾简介

陈安东,哈尔滨工业大学计算机系二年级博士生,研究方向大语言模型(LLM)的多语言方向。在ACL、EMNLP、ICAIL和TALLIP等AI领域顶级会议和期刊上发表多篇论文。Datawhale成员,大模型基础和理论开源教程So-Large-LM发起人,目前获得了1.4K stars。

Github地址https://github.com/datawhalec...

公众号专栏大航海图鉴:大模型全指南系列

分享详情

论文题目:DUAL-REFLECT: Enhancing Large Language Models for Reflective Translation through Dual Learning Feedback Mechanisms

分享方向:大模型多语言能力

分享大纲:

  1. 大模型有望成为这个时代的巴别塔?
  2. 当前大模型多语言能力局限性
  3. 机器翻译与大模型翻译范式的迁移
  4. 向“信达雅”的多语言能力前进

论文简介:

最近,通过自我反思增强的大型语言模型(LLMs)在机器翻译上取得了惊艳的表现。其核心思想是基于LLMs的反思能力优化生成的翻译结果。然而,现有的自我反思方法缺乏有效的反馈信息,限制了翻译性能。

为解决这一问题,我们引入了一个双重反思框架(DUAL-REFLECT),利用翻译任务的对偶学习特性提供有效反馈信号,从而增强模型的自我反思能力并提升翻译表现。这种方法在各种翻译任务中提高了翻译的准确性,并且增强了消除歧义方面的能力。

分享地址:#腾讯会议:891-723-748

分享时间:2024年5月30日(周四)19点30

Paper议程:分享45分钟,提问环节不限时

本场分享会在b站同步直播

请关注: 二次元的Datawhale

进群参与

群满在公众号后台回复“paper”

一起“赞”三连


Datawhale
27 声望11 粉丝

Datawhale 是一个专注于 AI 领域的开源组织,致力于构建一个纯粹的学习圈子,帮助学习者更好地成长。我们专注于机器学习,深度学习,编程和数学等AI领域内容的产出与学习。