星洲网
星洲网
星洲网 登录
我的股票|星洲网 我的股票
Newsletter|星洲网 Newsletter 联络我们|星洲网 联络我们 登广告|星洲网 登广告 关于我们|星洲网 关于我们 活动|星洲网 活动

ADVERTISEMENT

ADVERTISEMENT

国际

|

即时国际

|
发布: 7:00am 08/03/2023

诈骗

人工智慧

ChatGPT

诈骗

人工智慧

ChatGPT

被AI骗走9万多令吉!夫妻接电话以为儿子在求救 声音竟是合成

被AI骗走9万多令吉!夫妻接电话以为儿子在求救 声音竟是合成
(互联网照片)

加拿大一对夫妻接到一通电话,听见“儿子”表示出车祸急需法律费用,心急如焚地透过比特币汇款2.1万美元(9.39万令吉),后来才知道惨遭。原来,他们当初听到的熟悉声音不是亲生孩子而是(AI)模拟合成。

《华邮》报道,受害夫妻接到第一通电话,从自称“律师”的男子口中得知,儿子本杰明在一场车祸中撞死外交官而入狱,接着话筒传来“本杰明的声音”开口要钱。后来,他们又接到第二通电话,“律师”宣称本杰明需要2.1万美元的法律费用才能出庭。

ADVERTISEMENT

夫妻俩爱子心切而迅速汇款,后来才隐约感到有些奇怪,不过直到“真的”本杰明当天稍晚打电话过来,他们才惊觉受骗!

本杰明说,那个声音是“足够接近(我的声音),让我的父母真的相信他们在跟我说话。”尽管一家人赶紧向加拿大当局报案,可是“钱不见了,没有保险,拿不回来。”

他不知道诈骗集团从那里获得自己的声音,不过确实在YouTube发布关于雪上摩托车的影片。

《商业内幕》报道,更强大的人工智慧兴起之际,冒充身份的诈骗案也持续增多。不过,早在问世前,涉及AI技术的诈骗就已出现。

2019年,英国能源公司一名经理把24万多美元汇入一个匈牙利户头,因为他以为“老板”打电话要求这么做。今年1月,研究AI声音复制和语音合成的美国新创公司ElevenLabs也表示,他们注意到有人“把我们的科技用于恶意目的”,出现“越来越多声音复制的滥用案例。”举个例说,4chan匿名论坛上就有不法人士使用AI技术模拟与名人相似的声音,说出种族歧视的不恰当言论。

美国联邦贸易委员会(FTC)去年共接获240万人通报欺诈案,最常见类型就是冒名顶替者诈骗(imposter scams),尽管案件比前年低,可是损失金额很高,来到88亿美元(393亿令吉)。

FTC已成立一间科技办公室,专门调查有发展前景且可能使用AI的公司,是否尝试降低产品可能造成的风险。发言人格伦瓦尔德说,他们已经发现社媒上的欺诈案激增,“产生看似真实影片、相片、音档和文本的AI工具可能加速这个趋势,让骗子更容易接触受害人,速度也更快…我们也关心深伪探术(deepfake)与其他基于人工智慧的合作媒体的风险,它们变得越来越容易创作和散布,将被用于诈骗。”

打开全文

ADVERTISEMENT

热门新闻

百格视频

ADVERTISEMENT

点击 可阅读下一则新闻

ADVERTISEMENT