深夜的机场到达口,产品经理阿宁把手机切到离线包,对着屏幕说了一句捷克语。不到0.2秒,耳机里传来自然的中文;她又切到一段粤语对话,语气、用词都被稳稳拿捏。 这不是科幻片,而是腾讯混元翻译模型1.5的日常。它把“快、准、稳”装进了1GB内存的小盒子里,顺手还把33种语言和5种民汉/方言装了进去,连捷克语、马拉地语、爱沙尼亚语、冰岛语这类小语种也没落下。 双模搭档的快与准 端侧轻骑兵:HY-MT1.5-1.8B,面向手机等消费级设备,量化后仅需约1GB内存即可离线实时翻译;处理50个tokens的平均耗时约0.18秒,比主流商用翻译API常见的约0.4秒更快一步。云端大拿:HY-MT1.5-7B,脱胎于在WMT25拿下30个语种冠军的版本,这次重点修“准”,显著减少译文里夹带注释与语种混杂。端云合体:在不少真实场景里,1.8B负责快与稳,7B负责准与深,一前一后协同,体验更一致、更可靠。 把专业和地道同时装进小模型 术语库自定义:医疗、法律、金融、科技等行业可导入专属术语表,关键名词不再“各说各话”。上下文理解:长对话、多轮问答、长文翻译能“记住前文”,指代清晰、风格统一。带格式翻译:网页、文档、Markdown等排版信息尽量原封不动地保留,省去二次排版。实测片段:媒体拿医学术语和粤语对话做小测,反馈是“反应快、语气准”,日常可用性高。 小身材的大招 训练“心法”:引入On-Policy Distillation(策略蒸馏),7B当老师,1.8B当学生,在“纠错式学习”中提升小模型能力,避免死记硬背。成绩说话:在FLORES-200、WMT25及民汉语言测试集中,1.8B不仅优于不少中等尺寸开源模型与主流商用API,整体还达到了Qwen3-235B-A22B等大尺寸闭源模型的约90分位水平;在FLORES-200质量评估中约78%,同时维持约0.18秒的响应速度。 上手路径与生态 即刻体验:两款模型已在腾讯混元官网上线,GitHub与Hugging Face可直接下载;适配Arm、高通、Intel、沐曦等平台。模型获取:官网:https://hunyuan.tencent.com/modelSquare/home/list;GitHub:https://github.com/Tencent-Hunyuan/HY-MT;Hugging Face:https://huggingface.co/collections/tencent/hy-mt15。落地足迹:已在腾讯会议、企业微信、QQ浏览器、客服翻译等业务中打磨,意味着它不只“跑分强”,更“干活稳”。 |
网站介绍 广告业务 欢迎投稿 招聘信息 联系我们 友情链接 法律顾问 网站地图
CopyRight 2012消费电子实验室 版权所有 京ICP备12048044号-4号
电话:13701384402 邮编:100040 邮箱:BICQ6688@QQ.COM