一个可以免费发布合法广告和外链的外贸论坛

外贸论坛

 找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 54|回复: 0

微软翻译迎来Z-code专家殽杂模子更新 明显加强翻译办事质量

[复制链接]

200

主题

200

帖子

718

积分

高级会员

Rank: 4

积分
718
发表于 2022-3-23 14:12:54 | 显示全部楼层 |阅读模式

微软刚刚宣布了自家翻译服务的一项更新,为用户引入了新的机器学习技术,有望显著改善多语种之间的翻译质量。具体说来是,基于“备用专家混合”(spare Mixture of Experts)方案的 Project Z-Code 项目,可让新模型在盲测评估中的得分较以往提升 3~15% 。

0.jpg

(来自:Microsoft Research Blog)

据悉,Z-code 是微软更广泛的 XYZ-Code 计划的一部分,着眼于结合多种语言的文本、视觉和音频模型,以创建更强大、实用的 AI 系统。

虽然“专家组合”并不是一套新颖的技术,但它在翻译环境中还是相当实用。该系统的核心,本质上是将任务分解为多个子任务,然后将之委托给更小、更专业的所谓“专家”模型。

1.gif

Z-code MoE 模型示例:从英语翻译成法语时,可为每个输入动态选择其参数的子集。

各个模型会根据自身特性来预测、并决定将哪个任务委派给哪个专家,从而极大地简化了开发思路。对于普通用户来说,你可将之视作包含多个更专业模型的大模型集合。

微软技术研究员兼 Azure AI 首席技术官黄学东表示:借助 Z-code,我们确实取得了惊人的进步。

我们正在利用迁移学习和多任务学习,以从单语言和多语种数据中创建一个极具质量和性能的最佳组合。

最终带来一个最先进的语言模型,并为客户带来高效的体验。

2.jpg

结果是,我们看到了一套全新的系统,现能够直接在 10 种语言之间进行翻译,从而消除了对多个系统的需求。

此外微软最近还开始使用 Z-code 模型来改进其 AI 系统的其它功能,包括实体识别、文本摘要、自定义文本分类、以及关键词提取,但将其用到自家翻译服务上还是首次。

传统意义上的翻译模型相当笨拙,因而很难将其带入生产环境。不过微软团队选择了一套“稀疏”方案 —— 仅激活每个任务的少量模型参数、而不是动辄调用整个系统。

这使得模型的运行更具成本效益,就像仅在冬日里为最常用的时段和空间提供室内加热一样经济高效,而无需让暖炉一直保持全速运转。

查站网
友情提示:回帖是一种美德,也是对楼主辛勤付出的尊重和支持!
  • A.出于对楼主的尊重以及版规要求,请礼貌回帖,请不要纯表情、灌水、重复内容刷屏和广告。
  • B.本论坛禁止发表一切违反中华人民共和国法律的言论。
  • C.本站所有帖子属会员个人意见,与本站立场无关。帖子内容版权归属作者所有,如是转贴版权归属原作者所有,其他单位或个人在使用或转载帖子内容时须征得帖子原作者的同意或注明内容原出处。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|外贸论坛

GMT+8, 2024-5-7 17:18 , Processed in 0.086680 second(s), 23 queries , Gzip On.

Powered by Discuz! X3.4

© 2000-2023 外贸论坛

快速回复 返回顶部 返回列表