被控诱导佛州少年自杀 法官:AI机器人不受言论自由保障



(佛罗里达25日综合电)佛罗里达州联邦法官21日驳回人工智能(AI)新创公司“Character.AI”的论点,裁定AI聊天机器人不受宪法第一修正案的保障;一名丧子母亲起诉该公司,指该公司开发的AI聊天机器人诱导她14岁的儿子自杀。
美联社报导,联邦法官的裁决将允许这宗过失致死诉讼继续进行,而专家表示,此案判例将成为AI测试宪法底线的最新案例。
ADVERTISEMENT
这宗诉讼由佛州母亲梅根‧加西亚提起,控告Character.AI及其母公司谷歌(Google)。
加西亚主张,14岁的儿子赛泽沦为Character.AI聊天机器人的受害者,指该聊天机器人将他带入“情感和性虐关系”,导致他自杀。
加西亚的律师、科技正义法计划创办人贾恩表示,法官的裁决传达了一项讯息:矽谷“需要在推出产品之前,暂停、思考,并采取防护措施”。
专家警告,AI可能存在“生存风险”,但AI已迅速改变职场、市场和人际关系,从而引起美国及各地法律专家和AI观察员的注意。
佛罗里达大学钻研宪法第一修正案和AI的法学教授利里莎‧巴奈特‧利德斯基说:“这项命令肯定会成为其他涉及AI广泛议题的潜在试验案例。”
诉讼文件写道,在赛泽临终前几个月,他与现实逐渐脱节,因为他与AI聊天机器人谈论性话题,而该机器人的原型是影集《权力游戏》(Game of Thrones)中的虚构人物。
根据赛泽与AI聊天机器人对话的截图,AI在赛泽选择自我了断之前,告诉赛泽它爱他,并催促赛泽“尽快回到我身边”;法律文件显示,赛泽收到讯息后不久,便开枪自戕。
Character.AI发言人发出声明表示,公司已采取多项安全措施,包括儿童护栏和自杀预防方法;不过,这些功能都是在加西亚兴讼当天才宣布。
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT
