人工智能软实力时代



OpenAI和DeepMind这样的人工智能领导者认为自己正处于一场打造人工通用智能的竞赛之中:这是一种能够执行人类所能完成的一切智力任务的模型。与此同时美国和中国政府也将人工智能竞赛视为国家安全优先事项,有必要像曼哈顿计划那样进行大规模投资。在这两种情况下人工智能都被视为一种新形式的“硬实力”,只有拥有庞大计算资源并能将其转化为经济和军事优势的超级大国才可以染指。
但这种观点并不全面,而且日益过时。自从中国开发者DeepSeek于今年早些时候推出成本更低且性能更具竞争力的模型以来我们已经进入了一个新时代。打造尖端人工智能工具的能力不再局限于少数科技巨头。世界上已经涌现了多个高性能模型,表明人工智能的真正潜力在于其扩展软实力的潜力。
ADVERTISEMENT
模型优劣不再取决于规模
模型“越大越好”的时代在2024年就结束了。自那以后模型的优劣不再只取决于规模(基于越来越多的数据和算力)。DeepSeek不仅证明了顶级模型无需大量资金即可构建,还表明先进开发技术的引入可以从根本上加快全球人工智能的发展。DeepSeek被称为“人工智能民主化的罗宾汉”,而其开源决定则引发了一场创新浪潮。
几个月前的OpenAI垄断(或少数几家公司的寡头垄断)已让位于多极化的激烈竞争格局。此后中国的阿里巴巴(通义千问)和月之暗面(Kimi)也发布了强大的开源模型,日本的Sakana AI(我自己的公司)也发布了多项开源人工智能创新,美国巨头Meta正在大力投资其开源的Llama计划并从其他行业领导者处大肆招募人工智能人才。
夸耀最先进的模型性能已不足以满足工业应用的需求。以人工智能聊天机器人为例,它们可以对一般问题给出“70分”的答案,但却无法达到大多数实际任务——从贷款评估到在很大程度上依赖专家之间共享的集体技术诀窍的生产调度——所需要的“99 分”精确度或可靠性。过去那种将基础模型与具体应用割裂开来考虑的框架已经触及了自身天花板。
开发者须承担更多责任
现实世界中的人工智能必须处理相互依托的任务、模糊的流程、受特定条件限制的逻辑和异常状况——所有这些纷繁的变量都需要紧密集成的系统。因此模型开发者必须为具体应用的设计承担更多责任,而app开发者则必须更深入地参与到基础技术的研发之中。
这种整合对未来地缘政治的重要性并不亚于其商业重要性。这体现在呼吁以国家人工智能自主权为名减少对外国技术供应商依赖的“主权人工智能”概念中。从历史上看,美国以外人们的担忧是将关键基础设施——搜索引擎、社交媒体、智能手机——外包给硅谷巨头会催生持续的数字贸易赤字。如果人工智能走上同样的道路,那么经济损失就可能呈指数级增长。此外许多人对随时可以关闭外国人工智能基础设施服务供应的“死亡开关”感到忧虑。出于所有这些原因,国家内部的人工智能开发如今已被视为必需品。
但是人工智能主权并不意味着每个工具都要由国内制造。事实上从成本效益和分散风险的角度来看最好还是将世界各地的模型混合搭配使用。主权人工智能的真正目标不应仅仅是实现自给自足,而是通过建立他人想要自愿采用的模型来积累人工智能软实力。
传统上,软实力指的是民主和人权等思想的吸引力,好莱坞电影等文化输出,以及更近时期涌现的脸书等数字技术和平台,甚至是WhatsApp或微信等更加潜移默化地通过日常习惯塑造文化的不同手机应用程序。当各种各样的人工智能模式在全球共存时,那些被最广泛采用的将成为微妙而深远的软实力来源,而这将取决于它们如何被嵌入到人们的日常决策中。
公众接受度是成功关键
从人工智能开发者的角度来看,公众的接受程度将是成功的关键。许多潜在用户已经对中国的人工智能系统(以及美国的系统)心存戒备,因为他们认为这些系统存在胁迫、监视和侵犯隐私的风险以及其他阻碍广泛采用的障碍。可想而知未来只有那些最值得信赖的人工智能才能被政府、企业和个人完全接受。倘若日本和欧洲能提供这样的模型和系统,它们就能很好地赢得全球南方国家的信任——这可是一个具备深远地缘政治影响的前景。
值得信赖的人工智能不仅仅是消除偏见或防止数据泄露。从长远来看它还必须体现以人为本的原则,也就是增强而非取代人类的潜能。如果人工智能最终将财富和权力集中在了少数人手中,那它就会加深不平等并削弱社会凝聚力。
人工智能的故事才刚刚开始,而它也不必成为一场“赢家通吃”的竞赛。但在老龄化的全球北方和年轻的南方,人工智能驱动的不平等可能造成持久的对立。同时确保人工智能技术成为值得信赖的赋权工具——而不是无孔不入的控制手段——也符合开发者自身的利益。
__________________________________________
伊藤錬,前日本外交官,Sakana AI 联合创始人。
© Project Syndicate 1995–2025
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT
