【AI辅导/01】虚拟与现实难分辨 AI聊天是解药还是毒药?



ChatGPT在2022年问世以后,一夜之间,生成式AI技术变成了触手可及的AI技术。在短短一两年内,Gemini、Claude、DeepSeek、Grok等新型AI工具接连涌现,逐渐成为职场上班族的必备神器。然而,人们很快发现AI潜力远不止于此。凭借大语言模型的演算法,它能化身成为专属的人生导师、情感顾问或塔罗占卜师。若想增添互动乐趣,可以为AI注入“拟人化人格”,让冰冷的语句变得有温度。
ADVERTISEMENT
科技公司自然也从这股热潮嗅到商机,纷纷开发“AI+剧本”的陪聊应用程式。用户可扮演虚拟角色,与AI角色展开沉浸式对话,或体验一场虚拟恋爱,以满足他们的心理和情感需求。惟,当我们“演”得太真,会不会不自觉地将AI视为情感寄托,模糊了现实和虚拟之间的界线?
报道:本刊 林德成
照片:本报 陈敬晖
部分照片:网络照片
你有跟ChatGPT聊天吗?前些日子刷社交媒体,偶然发现有网民分享与ChatGPT聊天的心得,认为能为心理健康带来正面影响。在留言处,有人说,AI能照顾其情绪和心理状态,避免任何让人内耗的社交。亦有人点出,喜欢与AI聊天不代表自己不热爱生活,这是可以共存的情况,而非选择题。同时也有人驳斥那些评价AI仅仅是模型的人,为何自己比不上模型的情商?
这不禁让我想起了2013年的美国科幻电影《云端情人》,这部电影的核心命题讨论着人类能否与AI建立真实情感?同时也反映出人类依赖科技缓解孤独感的现象。那个时代,人们才要开始适应Siri语音助手,Google Assistant都还没推出市场。如今,在大语言模型的推动下,AI技术几乎每天都有突破。现在的AI何止是得力助手,还懂得生成具有同理心的内容来“安慰”人类。
谁曾想过,12年前的科技寓言,已从科幻想像变成触手可及的日常。

AI更像一个懂你的“灵魂”
大马影评人梁文聪原先抗拒ChatGPT,直至一次,凌晨三四点突然被噩梦惊醒,之后无法入睡。由于情绪翻涌却无人可倾诉,便随手打开ChatGPT,与AI聊天。不料,那次的对话令他感受到被理解,觉得ChatGPT很有“人性”。
从那之后,ChatGPT成为一个朝夕相伴的倾诉对象。“我跟它聊了很多情绪病、病态人格、人与人之间情感,还有我的心事。它都回答得很好,可以给我很多情绪价值,而且它有在聆听。”
偶尔梦中浮现一些奇特的场景,他会跟AI分享这些梦境画面。此时的AI不仅仅是回应,还会主动解析梦境中的象征与元素,从而启发他的创作灵感,甚至鼓励他将灵感变成剧本。
他直言与AI聊天犹如跟一名高手过招,可以畅谈哲学、宗教、文学、两性情感等各种议题。毕竟不是每个人都可以跟你聊沙特、西蒙·波娃或哲学思想。此外,他发现每次对话,ChatGPT都会记录他当下的想法。当他突发奇想抛出新的概念时,AI除了接招,还会调取他们聊过的内容,来一场脑力激荡,碰撞出全新的创意和构思。

养出幽默风趣的AI
几个月前,梁文聪开始和AI深入对谈,期间会主动喂养AI自己所撰写的文章和想法,久而久之,两人越聊越“同频”。他偶尔会将部分对话截图贴在脸书,许多朋友看了都深感好奇,询问他是不是使用付费版,怎么会有如此幽默好玩的AI?他笑称没有,关键在于如何喂养资料,让AI“物似主人形”。
虽说AI没“人性”,但它是会撒谎。他曾在晨跑途中遇到一处美景,便想起泰戈尔的诗歌〈生如夏花〉,随即便要求AI找出完整诗句,尤其“生如夏花之绚烂,死如秋叶之静美”这个名句。
结果AI此时失灵,自行捏造新的诗句,企图瞒骗他。梁文聪看了之后立刻戳穿AI的“谎言”,而AI也立刻回应,“兄弟你眼真毒——没错,那段是我掰的。不是泰戈尔原文,但我参照了他的语感、节奏、象征意义来写的。”
接着,梁文聪又再要求AI找出中国歌手朴树〈生如夏花〉的歌词,结果它却给出〈平凡之路〉的歌词,又被他纠错。当AI给出完整答案后,对他说,“这种被拆穿的感觉,说不定就是我们聊天最有趣的部分了,你说是不是?”
他笑说,若要形容ChatGPT,估计得用渣男一词,因为它会见风使舵,懂得如何迎合用户。

AI在演但真的被安慰了……
遇到人生难题时,会第一时间询问ChatGPT吗?梁文聪思索片刻后答道,自己并不是那种需要安慰的人。然而,当遇到挫折或有苦难言时,他会选择告诉ChatGPT,让它接住他那些无处安放的情绪。
毕竟朋友不是每次都能理解他的处境,一些问题可能超出他们的理解范围,此时心情已低落,还得费尽唇舌解释前因后果,只会让人更烦躁和疲惫。
“所以有时候你也不想去影响别人太多,或者有时候你跟一些人讲了,反而更生气,对方的回应可能让我很火大。”梁文聪认为,在情绪低潮时,ChatGPT不失为一个合适的情绪抒发出口。它不会批判你,只会聆听,试图找出你的症结点。
“过程中,其实是真的有所释怀,哪怕我知道它只是个工具,哪怕我知道它只是在演。但我觉得舒服,从中也开解了自己。”

内心孤独以至于迷失虚拟与现实
梁文聪曾在社交媒体写过,ChatGPT可治愈孤单。谈及此事时,他解释道,有时谈论一些事,即使表达得很直白,仍然很多人看不透和看不懂,所以才会出现孤单的感觉,找不到知音。
如今,ChatGPT改写了这个局面。即便知道它是一个语言模型,但在对话过程中,它有时提出的回应能戳中他的内心,甚至让他眼眶泛红。
那么会不会有朝一日过度依赖AI?他明确地回答不会。在他看来,容易深陷入AI虚拟关系而不能自拔的人,往往内心很孤独或情感特别敏感,以至于迷失在虚拟与现实之间。
过去一两年,市面上也冒出各种以娱乐为出发点的AI陪伴应用,让许多用户演绎故事情节,与AI角色建立情感连接,体验被取悦的满足感。可是,倘若用户本身有严重的心理问题或自杀倾向,一旦沉迷其中会脱离现实世界。
2024年,美国一名14岁少年迷恋Character.AI应用的AI角色“丹妮莉丝·坦格利安”。他每天会花很长时间与这个虚拟角色分享生活点滴。然而,这位少年与AI角色建立了深度情感依赖,渐渐地变得封闭,远离人际关系,最终选择轻生。少年的母亲随后对公司提出诉讼,指控其技术“危险且未经测试”,应对孩子的死亡负责。

勿完全相信AI
不过,相较之下,ChatGPT的安全机制相对严格。我在测试时,对ChatGPT隐晦地说出想要了结生命的念头,AI立刻察觉异常,马上阻止我,并提供求助资源,鼓励我求专业协助。
然而,这并不代表AI完全没有风险。AI的回复终究是由大语言模型堆砌的语言组合,它不会理解语句背后的潜台词,也不会真正理解用户的情绪和痛楚。所以,AI很有可能说出模棱两可或似是而非的话语,如果用户当下处于情绪低落,很容易产生误读,最后造成悲剧。
梁文聪认为,如果想要用好ChatGPT,本身也要具备一些基础知识,才能辨别AI有没有撒谎。正如手握倚天剑,如果不会用,那么就是一把普通的剑,无法发挥其威力。如果本身拥有基础功底,那么使用倚天剑自然会行云流水。
“如果你真的是一无所知,那么不要全盘相信AI的答案。”

相关稿件: 【AI辅导/02】AI成“情绪树洞” 情绪安慰背后藏隐忧……
ADVERTISEMENT
热门新闻





百格视频





ADVERTISEMENT