尽管人工智能的应用已经无处不在,但我们仍然能够对如何利用这种技术作出慎重决定。 Photo: 123rf
注:本文原标题为"Trust and Tech: Where should RNZ draw the line on AI?"(公信力与科技:RNZ 应该如何界定人工智能的界限?)由人工智能生成。
社论:人工智能(AI)的应用已经无处不在,它已深深嵌入我们日常生活的方方面面,而世界正飞速迈向下一场技术革命。
尽管如此,我们仍然能够对如何使用、出于何种目的使用以及在何种程度的人类监管下使用人工智能作出慎重决策。
许多大型媒体公司正在尝试人工智能技术,有些甚至已经真正使用起来。一些机构公开使用它来生成和整理包括标题和摘要在内的内容;而另一些虽然在原创内容生成上仍设有限制措施,但已将AI应用于研究、语音转录文字、数据分析、个性化服务和社交媒体审核。
AI技术的潜在好处包括更高的生产效率;让记者能够腾出时间进行如调查报道等工作;提供更多的个性化内容,吸引新的受众;还能提供对海量数据进行分析的能力等……不一而足。
然而,AI同样也有很多潜在风险:偏见、歧视、内容原意的缺失、新闻质量下降、就业岗位流失和造成错误。
政界人士也开始尝试AI--总理Christopher Luxon和移民部长Erica Stanford此前曾在TikTok上利用AI技术将声音转换成普通话,向公众宣传本届政府推出的父母团聚签证政策,并且在内容开始前进行技术声明。 Photo: TikTok/christopherluxonmp
RNZ的人工智能应用原则(AI Principles)仍在探索阶段。我们采取谨慎态度,认识到采用这项技术可能对公信力和声誉带来的风险。
简而言之,我们的原则允许我们的记者利用人工智能进行新闻研究、寻找不同采访对象、语音文字转录(将采访录音以文字方式整理出来)、分析海量信息,但不允许用于进行任何内容创作,包括标题、摘要或图片。
我们的内容准确性标准依然没有变。如果记者利用人工智能进行研究工作,他们必须将AI给出的信息视为"未经证实的资料",并进行信源核实。这是一条"人类提出问题-AI给出答案-人类进行核实" 的全流程检查。
RNZ会从外部渠道获得大量材料,我们要求我们的团队成员在使用AI时应保持安全意识和隐私意识,不向AI工具中上传任何敏感或保密信息。我们将竭尽所能地确保人工智能生成的包括视觉内容在内的内容不出现在我们的平台上。
由于本文是对阐述人工智能相关内容的特别展示,作者使用ChatGPT生成了本文的英文标题"Trust and Tech: Where should RNZ draw the line on AI?",这符合我们的规定。但在日常新闻编辑流程中,我们不会这么做。
译注:出于同样目的,本文中文标题也遵循同样做法由ChatGPT生成,而非人工翻译。
最新研究表明,公众对媒体中使用AI高度不信任,且一旦涉及新闻内容,尤其是完全没有人工参与制作的内容时,这种不信任感更为强烈。
2023年,英国广播公司BBC在英国、美国和澳大利亚的受众调研表明,公众普遍认为用生成式 AI 创作的新闻内容"风险极高"。其担忧主要集中在几个方面:虚假信息的传播、社会分裂的加剧,以及人类自身"解读与洞见能力"的丧失。
受访对象希望媒体机构在部署这项技术的时候能够采取三项措施:证明其应用价值、永远以人为本、在应用中保持公开透明。
这项调查对RNZ 来说很重要的是,他们还指出:公共媒体由于其自身的公共使命和公共资金来源,受众会期待其遵循"更高标准"。
路透新闻学研究所(Reuters Institute for the Study of Journalism,RISJ)最新的【数字新闻报告】(Digital News Report)同样调查了受众对人工智能的接受程度。结果显示,人们对 AI 用于个性化内容精准推送最为宽容--如果这能"让新闻更快、更容易理解、与用户关注点更密切"的话;而媒体研究组织Trusting News 的研究则聚焦在信息公开与受众信任度之间的关系。
奥克兰理工大学发布的2025年【新西兰媒体公信力报告】指出,60%的受访对象对于"在部分人工监督下"生产"大部分由人工智能生成的"新闻内容这一想法"感到不信任",仅有8%的受访对象能够接受这种形式。
而当被问及如果内容创作"主要由人类记者完成、并借助AI 辅助"是否可行时,受访对象的不信任有所减轻,但仍有 35% 的人无法接受,26% 表示可以接受。
目前,AI在应用监管领域尚处空白,各家媒体公司纷纷进行探索并推出自己的监管方案,而没有任何全国统一遵循的框架。
在其他国家,有些新闻机构正在与人工智能公司签订内容协议,还有一些则以版权为由将其告上法庭。其中一场关键诉讼是【纽约时报】起诉 OpenAI的案子,该案的结果将决定新闻机构对原创内容的掌控权以及相关收益归属。
但这些都是宏观上的动作。如果回到日常的媒体工作流程这个话题上,人工智能带来的好处也很明显:它能够帮助记者消弭许多方面的现实差距。
近年来,新西兰的新闻从业者数量大幅下降,政府机构、相关部长、企业手中掌握的日益庞大的公关团队掌控着关键信息,试图争夺舆论话语权。
这种情况带来的结果就是本地媒体进行深度报道、调查报道的能力不足,基层(尤其是地方上的)记者人数更少,媒体监督能力下降,对当权者进行有效的舆论问责的能力也相应下降。
在保持相对低风险的前提下,AI有几种方式能够帮助新闻工作者提高工作效率。一个典型应用场景就是语音文字转录,这已经在内容生产流程中被广泛应用;此外,借助AI对大量信息进行检索和分析也是一种应用场景。比如总结政府的财算案--这可以帮助记者发现那些政客们隐藏在每年数百页文件里的那些不起眼的关键信息。
不过当涉及到使用"生成式人工智能"(Generative AI)创作内容时,情况可能就复杂了。
Jane Patterson(本文作者),RNZ编辑质量与培训主管。 Photo: RNZ / Jeff McEwan
这可能是依托AI生成新闻文本的部分或者全部内容、配图、摘要、简介或标题;又或者是使用AI将RNZ的内容翻译成其他语言,然后将文字转换成音频,让内容覆盖更多本地或太平洋其他地区的多元社区。
目前除非是一些特殊情况,否则上述这类做法均违反我们的AI应用原则。
我们当然可以这样做,但问题是:我们应该这样做吗?而一旦我们走上了这条路,读者对信息披露程度的期待又有多高?是在所有内容中都单独做技术声明,还是只发布一个持续性的整体声明?
目前我们已经采取的应用是让人工智能来帮我们更好地管理社交媒体上的评论。
RNZ已经发布了一个由AI驱动的名为 "Sence"的工具,它可以对评论内容进行实时管理,有效识别有害言论,并且由社交媒体的人工审核团队进行复核。这些被标注的评论不会被删除,但在人工复核完成之前,这些评论将被隐藏。这种做法是为了打造一个更具建设性的舆论空间,减少我们不得不关闭评论功能的次数,并让我们的团队能够专注于创作内容。
最终,公众意见仍是媒体最有力的监督机制。我们必须在"推动新闻业发展"的好处与"破坏公信力"的风险之间取得平衡,这件事我们必须做好。
以下是包括RNZ在内的、已经推出人工智能政策的一些媒体机构的应用原则。所有机构都表示AI需要接受高层人员的人工监督,并且遵守有关法律和编辑标准。
RNZ
生成式AI"不可被RNZ用于创作新闻、时政或事实性报道";对于有关或阐述人工智能的内容可以豁免,但需要进行技术应用声明,并根据具体情况获得高层审批。
- AI可以被用于检索、语音转录文字、提供创意灵感,但不可以直接创建包括文本在内的内容;
- RNZ的原则是不使用AI生成的图像、视频,尽最大努力甄别并避免采用外部信源为我们提供的可能由AI生成的内容;
- 公开披露任何使用AI制作的内容以及任何相关背景。
Stuff
Stuff对所有"由生成式 AI 生成,或主要由AI生成"的内容都将进行知情披露。目前Stuff将AI应用于以下领域:
- 对民防或应急部门的媒体通稿、实时博客内容以及一些可向公众发布的文件进行精简提炼;
- 创作首页顶部滚动实时信息栏(Fast Facts)的显示内容;
- 有可能使用或正在测试中的应用场景包括:标题制作、社交媒体管理、文字转音频、基于数据的内容生成、报道排序的权重判断、页面自动布局以及不同语言版本的智能翻译。
NZME
NZME 将就生成式AI 是否被用于"撰写整篇文章,或制作图表或插图"进行信息披露。NZME 表示,该公司不会使用"AI 生成的视觉信息来作为新闻的配图或视频"。目前AI被用于:
- 文本校对/编辑;
- 标题、摘要的撰写,处理公开发布的媒体通稿素材;
- 对大量数据进行分析以便于分析调查;
- 处理新西兰证交所的官方公告;
- 一些网站首页管理工作。
TVNZ
TVNZ表示,如果其制作的节目中存在明显由AI生成的内容,TVNZ会"让观众知情"。
- TVNZ允许"单独"使用生成式AI 创建的文本或图像,在这种情况下,TVNZ 会"告知观众",并且生成的"重要"内容部分也将被声明;
- 所有工作都有专人监督,并有人做最终审核工作;
- 如果生成式AI被用于"创意"用途,将明确声明为"艺术效果"。
路透社
路透社有时会在其"报道、写作、编辑、制作和出版过程中"使用人工智能,并明确披露其"主要或完全依赖通用人工智能制作新闻内容"的情况。
该社已在编辑部内部测试了一套人工智能工具,现已被用于更广泛商业用途。其中包括:
- 查找、编辑和发布内容的功能;
- 自动处置金融和经济类警报,关注包括政府在内的信源渠道;
- 用于创建和推送新闻以及可以灵活归档的技术。
澳大利亚广播公司
澳大利亚广播公司(ABC)的指导方针中给出了一些例证来说明哪些情况下可以使用生成式AI,哪些情况则不可以。
明确指出使用人工智能工具,向观众展示其潜在用途--妥当;
将AI用于"内容的批量创作"--包括合成图像、声音或人工智能生成的文本--不妥当;
克隆已故者的声音,用于在纪录片中朗读其生平日记,并获得必要的许可和说明--妥当;
除演示或说明用途外,使用人工智能工具克隆新闻和信息内容中真人的声音和肖像--不妥当。
英国广播公司
BBC拥有全面的 AI守则。其目前的用途包括:
- 试点使用生成式AI进行体育报道、创建滚动新闻摘要,并将报道统一为 BBC 的风格;
- 用于有针对性的个性化内容;
- 为 BBC 天气预报创建合成语音。
您对我们的翻译满意吗? 如果您有任何建议,请发送电子邮件至 chinese@rnz.co.nz 。谢谢!