讨论 2019-10-28 = 以往的讲义 https://github.com/QipengGuo/FudanNLP-MT-notes # 机器翻译中的任务场景 ## 为什么需要设定任务场景 "专注才能有深度",设定各种不同的任务场景让研究者能够更专注于原问题的某些部分或某些性质。但不是所有任务场景都是研究价值的,在我们所处的领域中,一个有意义的任务场景通常需要具备以下条件: - 明确的任务定义,与已有任务的差异性和科研价值 - 有代表性的数据集 - 明确的可量化的评测指标 ## 无监督 (Unsupervised Machine Translation) 任务定义及意义: 利用非平行语料进行机器翻译的训练过程。平行语料(句子级别)通常需要人工标注完成,并且这种标注过程是对一个语言对(中英,英法)进行的,所以需要标注的总量实际上很大,并且标注质量也对最终训练结果有较大的影响。总而言之,现阶段对于很多语言对而言,平行语料是十分匮乏的。 数据: 大量的单语言语料 评测: 与机器翻译相同,BLEU。评测过程是在有标注的平行语料上进行的。 ## 文档翻译 (Document-Level Machine Translation) 任务定义及意义:长文本翻译。还可进一步细分为有无句子对齐信息,两者的训练过程不同,但测试相同。由于文档中多句话之间是存在关联性的,在语义上是一个整体,所以文档翻译需要考虑更多上下文的相关性,逻辑关系,指代关系等。比基础的机器翻译更具有使用价值。 数据: 文档级平行语料,句子对齐信息 评测: 与机器翻译相同,BLEU ## 迁移学习相关 涉及众多任务,其定义互有交集,但本质都是需要从其他任务中借鉴知识,所以归于迁移学习这一大类。这一领域的研究问题集中在与如何提高NMT在训练数据匮乏时的效果。通常的baseline是传统的PBSMT(词组级别统计翻译),其在小数据上表现明显优于NMT。 [Revisiting Low-Resource Neural Machine Translation: A Case Study](https://arxiv.org/pdf/1905.11901.pdf) ## 同步翻译(Simultaneous Machine Translation) 任务定义:把输入文本当做一个数据流,在保持翻译质量的情况下,尽量减小延迟。 实际意义很强,代替同声传译。 数据:一般的平行语料 评测:BLEU用于评价翻译质量,还有一系列评测延迟的指标,例如 average segment length,average proportion $\mathrm{AP}=\frac{1}{|X||Y|} \sum_{t}^{|Y|}s(t),$ where $X,Y$ is the source sentence and the target sentence, and $s(t)$ is the number of source words in the read buffer at the time step $t$. ## 非自回归翻译(non-autoregressive machine translation) 同样混杂了多个任务,例如非从左到右顺序生成,多步生成,块状生成,非自回归生成。非自回归的原本定义应该是一次性生成所有文本,或者多次生成,但没有后效性。换言之,要求生成的文本之间是条件独立的,即其生成顺序与结果无关。 数据:一般的平行语料 评测:BLEU
×
Sign in
Email
Password
Forgot password
or
Sign in via Google
Sign in via Facebook
Sign in via X(Twitter)
Sign in via GitHub
Sign in via Dropbox
Sign in with Wallet
Wallet (
)
Connect another wallet
Continue with a different method
New to HackMD?
Sign up
By signing in, you agree to our
terms of service
.