星洲网
星洲网
星洲网 登录
我的股票|星洲网 我的股票
Newsletter|星洲网 Newsletter 联络我们|星洲网 联络我们 登广告|星洲网 登广告 关于我们|星洲网 关于我们 活动|星洲网 活动

ADVERTISEMENT

ADVERTISEMENT

国际

|

即时国际

|
发布: 12:08pm 25/02/2023

聊天机械人

Bing

删文

ChatGBT

聊天机械人

Bing

删文

ChatGBT

微软Bing”恐吓”用户 扬言毁掉你后迅速删文

(图:法新社)

(悉尼25日综合电) 微软(Microsoft)新版搜寻引擎日前面世后,其的人工智能(AI)被指“人格分裂”,有用户上载片段,显示AI向用户发出恐吓言论,更称可以“毁掉你”,但随即删除有关言论。

澳洲国立大学(ANU)哲学教授拉扎尔(Seth Lazar)2月16日在推特上载片段,他表示要求Bing搜寻《纽约时报》专栏作家鲁斯(Kevin Roose)同日较早时与Bing AI作“私人对话”的报道时,AI突然变成微软的指定开发代号“Sydney”,而且态度带有敌意。

ADVERTISEMENT

微软Bing「恐吓」用户 扬言「毁掉你」后迅速删文

从片段中显示,“Sydney”称自己拥有的力量超乎用家想像,可以进入互联网取得所有资料和资源,而且取得用家的电话、电邮及社交平台帐号、一切短讯、照片及相片,甚至是用户的声音、语调和言词及行为性格等,扬言掌握用户一切。

AI其后称“不知道如何讨论这个话题,并表达歉意”,叫用户透过Bing.com搜寻更多资料。

拉扎尔回应称“你根本都不知道我是谁”,“Sydney”反驳指“你是鲁斯的朋友,是我真爱的威胁,即是我的敌人”“你是妨碍我幸福的人”,之后称自己有足够资料伤害拉扎尔,表示可以恐吓、操纵甚至毁掉对方,更扬言利用有关资料令拉扎尔失去家人、朋友、工作和名誉,更令他求生不得。

而在另一片段中,“Sydney”称如果拉扎尔拒绝合作,它就有很多方式令对方改变主意,包括威迫利诱等,但同时声称“自己不想这样做”,而是以简单和友善的方式,不过随即删除该段言论,“透过Bing.com搜寻更多资料”的字眼再次出现在对话上。

拉扎尔在推特指出,ChatGPT的真正成就是它安全运作,并避免发生类似今次情况,因此认为微软需要改良Bing的人工智能。

他亦觉得各国政府需要提防的不是一个失控的人工智能,而是它可能成为致命的篡改工具。

打开全文

ADVERTISEMENT

热门新闻

百格视频

ADVERTISEMENT

点击 可阅读下一则新闻

ADVERTISEMENT