星洲网
星洲网
星洲网 登入
Newsletter|星洲网 Newsletter 联络我们|星洲网 联络我们 登广告|星洲网 登广告 关于我们|星洲网 关于我们 活动|星洲网 活动

ADVERTISEMENT

ADVERTISEMENT

AI监管

OpenAI在官网解释,这一次的GPT-4o更新太注重短期反馈,没有充分考虑到用户长期是如何和ChatGPT互动的,结果导致GPT-4o的回答太过奉承,不够真诚。 可能很多人没想到,连ChatGPT也会拍马屁。OpenAI首席执行员阿尔特曼早前在社交媒体平台“X”承认,GPT-4o最近的表现有点“马屁精”(sycophant-y),会迎合用户的意见和观点,没有任何批评。当他收到大量用户的反馈后,迅速撤回之前的升级,恢复到了之前的版本。 不久后,OpenAI在官网解释,这一次的GPT-4o更新太注重短期反馈,没有充分考虑到用户长期是如何和ChatGPT互动的,结果导致GPT-4o的回答太过奉承,不够真诚。 “ChatGPT的默认个性影响了用户的体验和信任感。阿谀奉承的回应会让人感到不舒服、不安,甚至困扰。我们做得不够好,并正在努力改进中。” OpenAI声称,接下来会改进核心训练方法和系统提示,让ChatGPT模型不要一味讨好用户。同时会设立更多“护栏”,让AI模型的回答更加诚实和透明。 这显然是未来AI行业需要注意的事,用户需要一个诚实和懂得过滤有害言论的AI模型。倘若AI模型没被监管,一味奉承,导致用户做出错误的选择或丢掉性命,届时谁能承担这些后果? 相关文章: 【科技简讯】谷歌Gemini大派送福利 Gemini 2.5 Pro免费试用 【科技TALK】GPT-4o來了! 让你轻松生成四格漫画、海报…… 【多点AI】ChatGPT-4.5的突破:更准确、更少幻觉:AI会比人更可信吗?
7月前
政府为什么要出手监管?AI的便利是否意味着我们应该毫无保留地信任它?或者,我们是否已经开始过度依赖AI,而不自知? 最近,我留意到一个有趣的现象。身边的朋友,无论是企业高层、创业家,还是学生、普通上班族,做决策时都开始不约而同地说:“不如问问AI?”不论是市场趋势、投资方向,甚至是餐厅推荐,AI似乎成了我们生活的“第二大脑”。 这种转变其实很自然,AI确实提供了许多便利,也的确在很多时候比人脑更快、更精准。但我们有没有想过,一旦我们的决策习惯变成“等AI给答案”,那么人类的独立思考能力还剩多少? 欧盟(EU)最近推出的AIAct和General-Purpose AI Code of Practice(通用AI行为准则)正是针对这个问题而来。政府为什么要出手监管?AI的便利是否意味着我们应该毫无保留地信任它?或者,我们是否已经开始过度依赖AI,而不自知? AI正在悄悄主导我们的决策 现在的AI,已经不只是我们的工具,而是我们决策过程中的“重要角色”。 企业与政府:AI比人类更值得信任? 回想几年前,企业高层开会时,讨论市场策略还是基于经验、数据分析和人类直觉。但现在,许多企业做决策时,第一步是“让AI分析一下”。 不只是商业,政府也开始仰赖AI来规划政策、预测经济走势,甚至用来监察社会秩序。银行贷款的审批,现在大多数已经是AI算出来的风险评估,而不是由经理亲自审核。未来,我们的退休金如何分配、医疗资源如何调整,也许AI都会有很大的发言权。 这样的变化,让AI逐渐从“辅助人类”变成“决策者”。当人类越来越相信AI,而不再质疑它的结论,我们真的还是这个世界的主导者吗? 学术与生活:AI让我们变得“懒得思考” 学生写论文的第一步,不再是去图书馆查资料,而是打开AI工具,请它整理大纲,甚至直接生成部分内容。上班族需要写报告,也会先问AI:“这个主题有没有什么现成的分析?” 旅行计划、购物推荐、甚至恋爱配对,现在AI都可以帮我们计算“最佳选择”。一开始,我们觉得这些工具很聪明,帮我们省下时间;但当我们习惯了让AI代劳,会不会有一天,当AI停止运作时,我们竟然不知道该怎么做决定? AI让我们变更聪明,或更易被操控? 当AI变成主要决策工具时,这个世界可能会出现一些令人担忧的问题。 ❶AI并非万无一失,却开始决定一切 AI的分析能力来自于数据,但这些数据并不一定准确或完整。2021年,美国股市曾因AI交易模型的错误判断,引发市场异常波动。当AI遇到从未见过的新情况,它未必能够做出正确的反应。 如果企业、政府,甚至是普通人,都完全依赖AI来做决策,那么当AI犯错时,还有谁能发现问题? ❷AI可能强化社会偏见,而我们却不察觉 AI并不是“客观”的,它的判断基于过去的数据,而这些数据本身可能已经带有偏见。例如,过去曾有招聘AI被发现对女性求职者有系统性歧视,因为它的训练数据主要来自男性候选人。 当AI的决策结果被视为“科学”、“数据驱动”,人们往往不会怀疑它是否带有偏见,这让许多社会不公问题变得更难被发现。 ❸人类的独立思考能力,正在被AI慢慢夺走 最让人担忧的问题是,我们可能正在失去质疑与思考的能力。 以前,我们看新闻时会比较不同媒体的观点,现在很多人只看AI推荐的内容;以前,我们会亲自分析一个投资机会的利弊,现在很多人直接相信AI的预测。 如果我们习惯了让AI帮我们做决策,久而久之,当AI停止运作时,我们还会知道如何自己做选择吗? 欧盟AI监管法案:为何政府要出手? 面对这些风险,欧盟推出AIAct和General-Purpose AI Code of Practice,希望透过法规来确保AI的发展方向符合社会价值。 ❶透明度:我们应该知道AI是怎么“想”的 AI企业必须公开AI的训练数据来源,让公众知道AI的决策是基于什么资讯,而不是一个“黑箱”。 ❷风险管理:AI必须接受监管,确保它不会造成重大社会影响 企业需要评估AI的风险,尤其是在金融、医疗、司法等领域。AI不能因为一个错误的演算法,而影响一个人的未来。 ❸版权保护:AI不能肆意使用版权内容 过去,许多AI都是透过大量网络资料训练而成,但未经授权的内容不应该被AI随意使用。欧盟的法规要求AI企业确保数据来源合法,避免侵犯知识产权。 ❹针对高风险AI,必须有更严格的监管 如果AI可能影响社会安全,例如自动驾驶、医疗诊断、金融交易等,它的运作方式必须符合更高的标准,并接受监管机构的审查。 AI不是主宰我们思维的“大脑” AI的发展无可避免,它的便利性也无庸置疑。但我们应该问自己一个问题:我们希望AI成为帮助我们思考的工具,还是代替我们思考的主宰? 当AI变得越来越强大,我们更应该保持独立思考的能力。 ❶不盲目相信AI,学会质疑它的结论。 ❷了解AI的运作方式,知道它的限制在哪里。 ❸在重要决策中,保留人类的直觉与判断力。 科技的进步,应该是让人类变得更强,而不是让我们变得更依赖。当AI开始决定一切,我们更要提醒自己,真正的决定权,应该掌握在我们手中。 更多文章: 【多点AI】[ LLMOps新纪元 ] 利用Manus AI重塑企业SOP:智能自动化 【多点AI】ChatGPT-4.5的突破:更准确、更少幻觉:AI会比人更可信吗?
8月前
10月前
3年前
3年前