世界正在讨论生成预训练变压器(GPT)和生成式人工智能的可能性既然翻译是我们试图用人工智能解决的最古老的问题之一,那么人们使用语言学习模型(LLM)进行翻译并发现它们出奇地好也就不足为奇了。让我们深入探讨一下:LLM 是否已经准备好取代我们的 “恐龙 “神经机器翻译(NMT)模型?
GPT 在翻译方面的表现如何?
根据腾讯人工智能实验室使用行业通用指标 BLEU进行的初步研究(“ChatGPT 是一款优秀的 翻译器吗?它为德语和中文等高资源语言提供了质量非常接近的翻译。
然而,对于资源较少的语言(如罗马尼亚语)来说,情况并非如此,从神经 MT 到 GPT,性能急剧下降。鉴于用于训练 LLM 的数据集是从互联网内容中收集的,而这些内容绝大多数都是以英语和少数其他语言发布的,因此这并不令人惊讶。没有 “实践”,就不可能学会语言。
GPT 面临的一些挑战
在从一种低资源语言翻译成另一种低资源语言时,GPT 模型似乎也存在与 NMT 类似的问题。多语言模型通常会 “传播 “高资源语言的知识,帮助提高低资源语言的性能。就 GPT 而言,这种情况不会发生–至少不会直接发生。
例如,如果您想将罗马尼亚语翻译成中文,指示 GPT 先将罗马尼亚语翻译成英语,然后再将英语翻译成中文,结果会比直接请求将罗马尼亚语翻译成中文好得多。
GPT 的另一个挑战在于它是一个非确定性系统。同样的翻译提示可能会经常返回不同的结果。这就很难评估和跟踪可靠的长期绩效数据。
最后,应该指出的是,不同学科和内容类型的法律硕士的表现并不均衡。一方面,它在技术性很强的文本和专业翻译方面表现不佳,但另一方面,它在口语内容方面的翻译效果要好得多。这为媒体翻译带来了巨大的前景,尤其是 GPT 能够保持上下文并从 提供的提示中获取复杂的线索。例如,为一个场景提供剧本,为翻译设定对话的基调和人物的心理状态。
GPT 的未来
那么,我们是否已经准备好退役现有的机器翻译,双脚跳入生成式人工智能的美妙世界?几乎–但不完全是!
如今,在某些主题和语言中使用 LLM 比使用传统 MT 引擎更有意义,但这种方法不可能一概而论。在工作流程中实施 GPT 会面临一些实际挑战,例如缺乏结果可预测性、缺乏保密性(大多数解决方案都是基于云的,几乎无法保证您的内容有一天不会出现在模型中),而且最重要的是,因为我们值得信赖的 NMT 引擎在大多数情况下仍然表现得更好。从目前的改进速度来看,转向新一代基于 GPT 的翻译模型可能只是时间问题。
但到那时,我们还能谈论翻译吗?还是只需为多个市场制作内容并由文案编辑审核?我们将在下一期博客中对此进行介绍。
如果您想讨论如何在贵组织使用生成式人工智能,请联系我们。