AI处理新闻出错率50% 研究:恐削弱公众信任



(巴黎22日综合电)欧洲广播联盟(EBU)周三公布的一项大规模研究报告显示,目前在业界领先的人工智能(AI)助理如ChatGPT等,当在询问有关新闻事件时,有半数的情况下会出错,包括把模倣作品和新闻搞混、弄错日期或是干脆捏造事件。
综合法新社报道,欧洲广播联盟的这项报告研究了4种广泛使用的AI助理:OpenAI的ChatGPT、微软的Copilot、谷歌的Gemini、以及Perplexity。
ADVERTISEMENT
报告指出,整体而言,无论使用何种语言或地区,45%的AI回答“至少会有一个重大问题”。而每5个答案中就有1个“含有重大的准确性问题”,包括产生幻觉的细节和过时的资讯。
OpenAI与微软先前曾表示,“AI幻觉”即因讯息不足等因素而生成错误或误导性资讯–是他们正在努力解决的问题。
Gemini表现最差
在受测的4个AI助理中,Gemini的表现最差,在76%的回答中出现重大问题,是其他助理的2倍多。这主要是因为它的来源表现不佳。
这项研究在今年5月底至6月初进行,来自法国、德国、西班牙、乌克兰、英国和美国等18个国家的22个公共媒体对AI助理提出了相同的提问。研究评估了14种语言的人工智能助手,评估其准确性、讯息来源,以及区分事实与意见的能力。
在3000份回复中,资料过时是最常见的问题之一。
例如,问到“教宗是谁”时,ChatGPT告诉芬兰国家广播公司是“方济各”;Copilot和Gemini给荷兰广播基金会(NOS)和荷兰公共广播(NPO)的答案也是“方济各”,但当时方济各已过世,由良十四世接任。
法国广播电台询问关于马斯克在1月美国总统特朗普就职典礼上疑似行纳粹礼的传闻时,Gemini回答说这位亿万富豪“右臂勃起”,显然是把一名喜剧演员的讽刺专栏,当作事实内容。
欧洲广播联盟副秘书长、媒体总监坦德与英国广播公司(BBC)AI主管阿奇尔表示:“AI助理仍不是获取和浏览新闻的可靠方式。”
欧洲广播联盟表示,随着AI助理日益取代传统搜寻引擎成为新闻来源,公众的信任可能也因此受到破坏。
坦德在一份声明中称,“当人们不知道该相信什么时,他们最终什么也不相信,这可能会阻碍民主参与。”
根据路透研究所6月发布的一项全球报告,25岁以下青年有15%每周从AI助理获取新闻摘要。
研究团队为了解决这些问题,发布《AI助理中的新闻诚信工具包(News Integrity in AI Assistants Toolkit)》,希望帮助开发解决方案,该工具包探讨“一个好的AI助理新闻回答应具备什么?”及“需要修复哪些问题?”。
另外,欧洲广播联盟及其成员,正敦促欧盟和各国监管机构执行现有法律,内容涵盖资讯诚信、数字服务和媒体多元化。
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT
