您可能会相信机器让它为您洗碗或记录您的行事历——但您应该相信它来为您说话吗?
随着教育界和科技界对 ChatGPT 等 AI 工具的潜力(和陷阱)充满热情,也是深入研究另一种通常被誉为复杂问题解决方案的工具:机器翻译 (MT) 的时机。不可否认,谷歌翻译和微软翻译等机器翻译软件已经发展得更加精细化。机器翻译采用尖端的神经网络和算法构建,可以完成从翻译数百页技术术语到帮助您在国外订购食物的一切工作。
可是当有问题出现时,会发生什么情况呢?作为探讨机器翻译一文中的上篇,这篇文章探讨了 MT 的潜在危险。
错误可能导致灾难性的误解
想象使用机器翻译来弥合简单但可能尴尬的沟通差距——例如,询问去机场的方向或用不熟悉的语言问候某人等,可能是比较容易的场景。
然而,由于机器翻译算法缺乏解释语气、上下文和习语的能力,它们可以迅速将看似平凡的互动升级为实际的暴力行为。例如,2017 年 10 月,Facebook 严重误译一名巴勒斯坦男子无伤大雅的照片说明——最初是阿拉伯语的“早上好”(yusbihuhum)——变成了希伯来语的“攻击他们”和英语的“伤害他们”。这名男子被以色列警方逮捕并接受讯问。
事实上,在一项关于机器翻译严重错误的研究中,伦敦帝国理工学院的研究人员发现机器翻译算法在应对有毒语言方面特别困难。机器翻译不仅容易误译此类语言,甚至可能引入原句中根本没有的有害内容和冒犯性暗示。
高风险环境中的过度依赖
虽然各类组织急于推广和采用机器翻译,以作为一种节省成本的措施,但此举动在高风险情况下尤其危险。
例如,使用谷歌翻译来提供急诊室指南总是会导致严重错误,尤其是使用稀有语言时。我们万万不可低估在在医疗保健领域方面,具备良好翻译的重要性。测量、剂量、说明、症状等都必须精确传达,以避免过敏反应、过量服用和其他潜在的致命后果。
政府组织还在误译可能产生巨大影响的部门部署机器翻译。2022 年底,FEMA 解雇了一家使用机器翻译为阿拉斯加原住民社区提供救灾服务的公司。危险的台风过后,讲因努皮克语和其他语言的人非但没有得到关键援助,反而听到了诸如“你的丈夫是一只北极熊,瘦骨嶙峋”之类的可笑短语。
在执法中使用机器翻译也会产生棘手的法律问题。例如,在 2017 年,当地警方使用谷歌翻译说服一名讲西班牙语的司机允许他们搜查他的车。然而,法院裁定,谷歌翻译提供的“不错”翻译远远不足以进行宪法搜索,因此该案被驳回。
机器学习工具和道德困境
最后,机器学习工具的快速发展本身也引发了一些伦理问题。研究人员发现,训练一个大型 AI 模型会排放超过 626,000 磅的 CO2 当量碳排。这几乎是普通汽车使用寿命内排放量的五倍!虽然雇用人工翻译似乎不符合成本效益,但对于优先考虑可持续性的公司来说,这很可能更环保。
与此同时,为这项技术提供动力的算法经常依赖于低薪“微型工人”的无形劳动——这些工人通常在发展中国家,他们通过删除令人反感的材料、对结果进行排名和其他繁琐的任务来训练算法。虽然机器学习工具可能试图让我们相信它们与真人不相上下,但实际上,如果没有严格的人工监督和人工输入,它们也无法发挥作用。
我们是否应该使用机器翻译?
机器翻译具备的的潜在危险并不意味着我们就永远都不能使用它们,即便在很少见的情况下,机器翻译还能够取代高质量人工翻译提供的准确性和文化知识。在下篇中,我们将考虑如何避免其中的一些问题。与此同时,最好的选择是与保证高质量人工翻译服务的公司合作,包括语言专家来帮助您编辑机器翻译。