(华盛顿19日讯)《华尔街日报》星期日报道,社交网站脸书内部文件显示,该公司的人工智能(AI)技术演算法不够强大,未能有效自动将仇恨和暴力言论等有问题内容屏蔽,自动清除仇恨言论比率甚至只有个位数,与高层向外宣称的说法不符。
据报,脸书的AI无法持续稳定地找出种族仇狠言论、第一身射击影片,令内部研究人员百思不得其解。
ADVERTISEMENT
在仇恨言论上,文件显示脸书员工估计公司只移除了不足5%的违反平台守则内容,帖文者的帐户也往往没有被惩罚。一名高级工程师和研究科学家在2019年中曾估计,被AI系统自动识别后删除的仇恨言论,仅占平台内总数约2%。
今年3月,脸书另一员工小组得出类似结论, 指AI删除的相关言论只占所有仇恨言论的3%至5%,占所有违反脸书反暴力和煽动内容的0.6%。
脸书曾声称,直到今年较早时,近98%被删除仇恨言论都是在用户举报前先由AI发现。
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT