美智库:AI模型每7个月能力翻倍 失控恐瓦解民主



(华盛顿5日综合电)美国智库METR发布报告指出,大语言模型每7个月能力翻倍,远超过摩尔定律速度。研究员评估,预计到2030年,模型花数小时即能完成人类1个月工作;而失业并非最糟情况,若发展失控,恐致科技独裁、政变、瓦解民主制度。
加州柏克莱智库“模型评估与威胁研究”(METR)日前发布报告指出,大语言模型(LLM)能力呈现指数型成长,每7个月翻倍,远超过摩尔定律(指晶片上可容纳的电晶体密度,约每18至24个月便会增加1倍)。
ADVERTISEMENT
根据METR研究,倘若这样的趋势持续下去,到了2030年初,人工智能(AI)几小时便能胜任人类花1个月才能完成的任务。
全球深具权威性的科技和工程类刊物IEEE Spectrum访问METR研究人员奇尼蒙2日刊文指出,大语言模型(LLM)能力呈现指数型成长。
根据METR研究,大语言模型能力每7个月翻倍,远超过摩尔定律(指晶片上可容纳的电晶体密度,约每18至24个月便会增加1倍),倘若这样的趋势持续下去,到了2030年初,人工智能(AI)几小时便能胜任人类花1个月才能完成的任务。
奇尼蒙表示,自己原先没预料到结果会呈现指数型成长趋势。她进一步阐述,“1个月”是指167小时,也就是人类每个月投入的工作时数,目前模型成功完成任务的可靠性机率约50%。
奇尼蒙分析,就这样的结果来看,AI对经济层面上的冲击或许没有预想中来得剧烈,但足以加速AI自身研发,形成AI打造AI,导致AI能力极为快速发展。如此一来,人类的控制将变得更加困难,全世界都将面临巨大的适应压力。
针对最先进AI可能带来的风险,奇尼蒙指出,不仅是单纯的失业潮问题,还有更深层的社会和政治结构瓦解风险;倘若几乎所有人类都失业,或者所有工作都不再需要人类来执行,“你可能也不需要人类来维持军队运作,或者只需要极少数人运作。”
奇尼蒙表示,“这样的情况会让某个人或某个组织更容易发动政变或夺权。” 另外一个风险是,如果有一大批类似天才的AI被集中在某个资料中心,这会让拥有它的人变得极其强大。一旦这样的智慧被用来生产军事装备,那么权力很可能会被高度集中,“甚至导致民主制度瓦解”。
被问到AI是否会有“意识”,奇尼蒙表示,假设AI具备某种意识,其实也不是什么荒谬的想法,毕竟它们会变得非常聪明、智能极高。
由于大语言模型主要输出文字,品质较难衡量,对其表现进行评估相对不易,METR研究人员替模型安排复杂程度不一的任务,并观察模型完成任务的可靠性,得出上述结果。

ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT
