星洲网
星洲网
星洲网 登录
我的股票|星洲网 我的股票
Newsletter|星洲网 Newsletter 联络我们|星洲网 联络我们 登广告|星洲网 登广告 关于我们|星洲网 关于我们 活动|星洲网 活动

ADVERTISEMENT

ADVERTISEMENT

国际

|

国际头条

|
发布: 10:10pm 01/11/2023

苏纳克

全球人工智能(AI)安全峰会

AI前沿技术

AI焦虑症

苏纳克

全球人工智能(AI)安全峰会

AI前沿技术

AI焦虑症

全球AI安全峰会 伦敦开幕 聚焦AI风险与挑战

 全球AI安全峰会伦敦拉开序幕 聚焦AI风险与挑战
英国首相苏纳克在伦敦卡尔顿别墅露台皇家学会的活动上,就AI的前景发表讲话。(美联社照片)

(莱切利公园1日综合电)首届周三在英国拉开序幕,来自政界和科技界领袖将讨论如何应对这一被称为“AI前沿”(Frontier AI)的影响和挑战。

28国约百官员高管参加

法新社报道,共自28个国家的约100名官员参加,其中包括美国副总统贺锦丽、欧盟委员会主席冯德莱恩、联合国秘书长古特雷斯、特斯拉执行长马斯克以及OpenAI、谷歌旗下Deepmind和Anthropic等美国主要AI公司的高管。

ADVERTISEMENT

最新的AI模型发布让人们得以一窥AI的潜力,但也引发了人们对一系列问题的担忧,包括导致失业潮和网络攻击,以及人类对系统的实际控制。

英国首相在上周的一次演讲中强调,各国有必要“对我们面临的风险达成共识”。

苏纳克:将力促AI风险国际声明

苏纳克表示,英国将致力促成峰会就AI风险的本质与可能样态达成共识,并在会后发布全球第一个AI安全风险国际声明。

他也称,英国将建立全球第一所“AI安全研究院”,以协助促进各国对AI安全的理解。研究院将严谨检视、评估及测试各类新AI模型与工具的能力和风险;其中,风险包括错假讯息与偏见对公民社会的伤害。

此外,为确保各国对AI发展及其衍生风险的理解得以与时俱进、并及时更新国际共识,苏纳克称,有必要取法联合国“政府间气候变迁问题小组”,建立由AI安全峰会与会各国及组织提名的全球AI专家小组。

英国政府6月宣布,Google Deepmind、OpenAI、Anthropic等全球AI领导企业已同意让英方优先或提早取得各企业开发的AI新模型,供科学研究和安全评估之用。

苏纳克称,只有政府、而不是AI公司才能保护人们免受技术风险的影响。然而,针对AI风险管控,苏纳克指,英国的立场是“别急着规范管制”:必须鼓励、而非抑制“创新”;更何况,“若尚未全盘透彻理解,该如何制定合理法规”。

英藉峰会彰显国际领导地位

这次的峰会反映出英国政府渴望举办国际会议,以表明英国在3年前脱欧后未被孤立,仍能在世界舞台上发挥领导作用。

峰会前夕,七国集团(G7)周一就开发最先进AI系统的公司达成了一项不具约束力的“行为准则”。

目前,中国和美国是世界上两个AI大国。拜登周一公布了自家的AI监管计划,为AI系统制定安全标准,并要求企业将部分系统提交政府审查。

布鲁塞尔也正在对世界上首个全面的AI法规进行最后的修改。而意大利、德国和法国部长也呼吁采取“创新友好的方式”来监管欧洲的AI发展 。

中派科技副部长吴朝晖出席

英国今次也邀请中国赴会,由科技部副部长吴朝晖代表出席。消息人士指出,中国外交部、科学院、阿里巴巴和腾讯等学术机构和企业的代表,与吴朝晖一同出席峰会。

根据议程,峰会第一天,英国数字部长多兰将发表开幕演说,与会人士接着展开跨领域的圆桌和小组讨论,议题包括AI前沿的不可测发展及风险,及国家政策制定者、科学界、国际社会该如何应对AI风险与机会。

进入第二天,峰会缩小与会规模,多兰将再度召集各国代表、拟定后续作为,苏纳克则将与“少数”政府、企业与专家代表会晤。

据《金融时报》见到美国副总统贺锦丽的讲稿摘录,贺锦丽将在演讲中提到,尽管“AI可能带来深远的好处,但它也有可能造成深远的伤害,从我们以前从未见过的大规模AI网络攻击,到AI制造的生物武器,可能危及数百万人的生命”。她认为这些风险“可能危及人类的生存”,“需要全球采取行动。”

英国因过度关注AI的风险而受到批评。该国周三承诺向世界各地的AI项目提供3800万英镑(约2.2兆令吉)的资金,并从非洲开跑。

据两名知情人士透露,为了让这次的活动保持势头,英国也将宣布韩国为明年的下一届AI安全峰会的东道主。

 全球AI安全峰会伦敦拉开序幕 聚焦AI风险与挑战
为期两天的英国全球AI安全峰会将在伦敦北部的米尔顿凯恩斯布莱切利公园别墅拉开序幕。(法新社照片)

加入欧美行列
中国AI专家吁加强监管

中国人工智能(AI)科学家加入西方学者的行列,呼吁对AI技术实施比英国、美国和欧盟提议的更严格的监管。

英国《金融时报》报道,本周三在英国布莱切利公园举行的峰会上,几位与会的中国学者签署了一份声明,他们警告,在未来几十年里,先进的AI将对“人类的生存构成威胁”。

姚期智:强制AI系统设“关闭”程序

以中国最著名的计算机科学家之一的姚期智为首的中国AI科学家团队呼吁建立一个国际监管机构,对先进的AI系统进行强制性注册和审核,加入即时“关闭”程序,并要求开发人员将30%的研究预算用于AI安全。

与美国总统拜登本周签署的专注于涉及算法歧视和市场影响的AI行政令相比,中方的提议更侧重于生存风险,而欧盟拟议的AI法案则重点关注保护隐私等权益。

不过,中国AI科学家的联合声明的重点与中国国内的AI法规不同,后者侧重于内容管制和审查。中国政府最近宣布了自己的全球AI治理倡议,突显了美国对中国的晶片出口管制对AI应用造成的障碍的不公平。这一立场将遭到华盛顿及其盟友的强烈反对。上述联合声明也获得众多西方专家联署,当中包括加拿大知名计算机科学家本吉奥。

姚期智表示:“从应对环境破坏中吸取教训后,我们应该作为一个全球社区共同努力,确保AI的安全发展。”清华大学院长、科技巨头百度前总裁张亚勤则称,有必要确保未来的通用AI是“安全可靠的”。

 全球AI安全峰会伦敦拉开序幕 聚焦AI风险与挑战
英国电脑科学家和数学家图灵位于布莱切利公园的办公室。他在这里破译截获纳粹德国的编码信息方面发挥了关键作用,使盟军能够在许多重要交战中击败轴心国,并因此帮助赢得二战。(法新社照片)

专家批AI峰会焦点狭窄

尽管英国自诩是AI国际合作的推动力量,但英国对AI负面后果的强调让一些业内人感到沮丧。业内人士更强调现有的AI问题,比如公司设计的AI模型缺乏透明度,以及其对种族或性别的偏见,而不是英相苏纳克所指出的更为危言耸听的担忧。

批评者指出,英国希望建立的共同伦理原则可能与以中美为多数的AI实验室和科技巨头起利益冲突。这可能将限制峰会达成任何有意义成果的可能性。

位于伦敦、专注于AI政策研究机构阿达洛夫莱斯研究所的临时主任贝内特认为,这次峰会的焦点实际上有点太狭窄了。

她上周在查塔姆研究所的一个小组讨论会上说,“我们似乎忘了更广泛的风险和安全”,以及已经成为日常生活一部分的演算法。

加州大学伯克利分校研究演算法偏见的研究员拉吉点出英国已部署系统存在的问题,例如警察脸部识别系统对非裔错误检测率要高得多,以及搞砸了一次高中考试的糟糕算法。

抨未将AI监管列议程

逾百个民间社会团体和专家在致苏纳克的一封公开信中表示,这次峰会是一个“错失良机”,并将受AI影响最大的社区和工人边缘化。

批评者认为,英国政府将峰会目标设定得太低,因为未将AI监管列入议程,而是专注于建立“护栏”。

拉吉说,苏纳克呼吁不要急于实施监管,这让人想起“我们从美国许多企业代表那里听到的信息”,因此他对这些AI企业代表对英国官员“读稿”并不感到惊讶。

指科企不应参与起草法规

她也认为,科技公司不应参与起草法规,因为它们往往“低估或淡化”法规的紧迫性和全面危害。她并补充,科技企业也不太愿意支持“可能是必要的、但可能会危及他们的底线”的拟议法律。

英国政府坚称,有来自政府、学术界、民间社会和商界的代表将赴会。

英国中左翼智库公共政策研究所表示,如果让科技行业在没有政府监督的情况下自行监管,那将是一个“历史性错误”。

该组织高级经济学家荣格表示:“监管机构和公众在很大程度上对AI在整个经济中的应用情况一无所知,但自我监管对社交媒体公司、金融业、AI也不会起到作用。”

 全球AI安全峰会伦敦拉开序幕 聚焦AI风险与挑战
位于伦敦北部的布莱切利公园博物馆内的恩尼格玛密码机,当年英国特工因成功破解纳粹德国的“恩尼格玛密码机”密码,令同盟国洞悉德军动向。(法新社照片)

存隐忧
逾20专家联署吁防范

由于尖端的人工智能(AI)系统,像ChatGPT这样的AI聊天机器人以其写演讲稿、计划旅游行程或进行对话的能力震惊了世界,甚至可媲美人类。AI前沿技术受到热烈讨论之同时,人们也越来越担心这项新兴技术可能危及人类。

从英国政府到顶级研究人员,甚至是大型AI公司本身,每个人都在对AI前沿技术的未知危险发出警告,并呼吁采取保障措施,保护人们免受其威胁。

英属哥伦比亚大学专注于AI和机器学习的计算机科学副教授克伦说:“我们需要认真对待这个问题,我们需要开始专注于努力解决这个问题。”

克伦与一群有影响力的研究人员上周发表了一篇论文,呼吁各国政府采取更多措施来管理AI带来的风险。

谈论AI最终会否消灭人类还言之过早。不过克伦说,“但AI有足够的风险和发生的可能性。我们需要唤醒社会的注意力,努力解决这个问题,而不是等待最坏的情况发生。”

克伦等20多位专家包括被称为“AI教父”的辛顿和本吉奥联署了一份文件,呼吁政府和AI公司采取具体行动,例如将三分一的研发资源用于确保先进的自主AI的安全和道德使用。

AI前沿技术是最新、最强大系统的简称,这些系统可以达到AI能力的极限。它们基于AI基础模型,而这些模型是基于从互联网上收集的广泛信息进行训练的算法,以提供一般但非绝对可靠的知识基础。

克伦说,这使得AI前沿技术的系统“很危险,因为它们并不完全了解情况”、“人们自以为自己知识渊博,这会给你带来麻烦。”(美联社)

 全球AI安全峰会伦敦拉开序幕 聚焦AI风险与挑战
OpenAI的AI聊天机器人ChatGPT在备受追捧的同时,也面临AI自身数据和模型方面的安全隐患。(美联社照片)

AI来势汹汹
人们患

科技巨头们正竞相创造比人类更聪明的AI,但同时,人们也越来越担心人工智能(AI)有一天会毁灭人类。

1.抢走人类饭碗?

ChatGPT的成功引发了一场争论,即能够根据日常语言中的简单命令快速生成文本、图像和音频的“生成式AI”,会否会对人们的工作构成巨大威胁。

如今,自动化机器人已成为人类劳力的替代方案,被用于工厂、仓库和田地里。

然而,生成式AI瞄准着白领工作,如律师、医生、教师、记者,甚至电脑程序员。

咨询公司麦肯锡的一份报告估计,到本10年末,美国多达30%的工作时间可能会实现自动化,而生成式AI加速了这一趋势。

2.抄袭者?

艺术家们对Dall-E、Midjourney和Stable Diffusion等软件提出了抗议,这些软件几乎可以根据需要创建任何风格的图像。

电脑程序员和作家也纷纷效仿,批评AI创造者在他们的工作中“训练”软件,使其能够在未经许可或补偿的情况下复制他们的风格或技能。

AI模型是通过在网上找到的大量信息和图像,从而进行学习。

OpenAI联合创始人奥特曼在9月的一次会议上表示:“这就是它的训练基础,只是人类巨大产出的一小部分。”

“我认为这将是一种强化人类的工具,而不是取代人类。”

3.假消息利器?

假新闻和深度造假已存在多年,但如今可通过生成式AI轻松制作出来,引发了人们对猖獗的在线欺骗行为的担忧。

认知科学家和AI专家马库斯认为,如今存在最善于传播虚假信息的人赢得选举的风险。

他说:“民主取决于获得做出正确决定所需的信息。但如果没人知道什么是真的,什么是假的,那就完蛋了。”

4.欺诈帮凶?

生成式AI使诈骗者更容易创建令人信服的网络钓鱼电子邮件,甚至可能对目标有足够的了解,再加以个性化。

AI技术让不法分子复制人脸或声音,从而诱骗人们上当,例如声称挚爱遇上危险。

拜登最近签署了针对AI技术的行政命令,并形容AI模仿人类声音的能力“令人震惊”。

如今甚至存在专门训练的语言模型来生成此类恶意内容。

5.人类角色模型

与其他具有善恶潜力的技术一样,主要的危险来自于使用它的人类。

由于AI是根据人类放在网络上的数据进行训练的,因此它可以反映社会的偏见、偏见和不公正。

AI也有可能使制造生物武器变得更容易、入侵银行或电网、政府进行压迫性的监视等等。

6.取代人类成为世界霸主?

一些业内人士担心,AI未来会变得更聪明,以至于从人类手中夺取控制权。

OpenAI联合创始人兼首席科学家苏茨克维尔在最近的TED AI大会上表示:“不难想象,在未来的某个时候,我们的AI电脑将变得和人一样聪明,甚至比人更聪明。”

“这种AI的影响将是巨大的。”

OpenAI及其竞争对手坚持认为,AI的目标是造福人类,解决气候变化等长期棘手的问题。

与此同时,AI行业的领先者呼吁进行深思熟虑的监管,以防止人类灭绝等风险。(法新社)

 

柯林斯词典评选 
“AI”年度最受关注单词

《柯林斯词典》出版商周二宣布,“人工智能”(AI)被评为2023年年度词汇。

柯林斯词典的编纂者表示,这个决定是基于“AI”在过去一年中使用频率的四倍增长,以及它作为代表未来发展的技术已经成为今年的热门话题。

该公司总经理比克罗夫特说:“我们知道,AI已成为今年的一大焦点,因为其发展方式,以及迅速变得无处不在,融入了我们的生活,就像电子邮件、流媒体或任何其他曾经是未来、如今成为日常的技术一样。”

柯林斯公司表示,他们的词汇专家分析了柯林斯语料库,该数据库包含200多亿个单词,包括来自世界各地的网站、报纸、杂志和书籍的书面材料。

它还从广播、电视和日常对话中提取口语材料,同时每个月都有新数据输入语料库,以帮助柯林斯词典的编辑从第一次使用的那一刻起识别新词和词义。

比克罗夫特说:“通过我们的柯林斯语料库监测,这个词的使用总是很有趣,毫无疑问,这也是2023年的话题。”

“nepo baby”成流行短语

柯林斯词典上的其他词汇还包括“nepo baby(裙带宝贝)”,这个词已经成为一个流行短语,用来形容那些在与父母相似的行业取得成功的名人孩子。

另外,“贪婪通胀”(Greedflation)指的是在生活成本危机中获利的公司,以及“超低排放区”(Ulez)也被提及,Ulez指的是惩罚伦敦污染最严重汽车的司机。

此外,“deinfluence”或“de- influence”等社交媒体词汇也在柯林斯的名单上,这些词汇的意思是“警告粉丝不要购买某些商品”。

2022年,“permacrisis”(永久危机)当选柯林斯年度词汇,意即“长期的不稳定和不安全”;2020年是“lockdown”(封锁);2016年是“Brexit”(英国脱欧)。(法新社)

打开全文

ADVERTISEMENT

热门新闻

百格视频

ADVERTISEMENT

点击 可阅读下一则新闻

ADVERTISEMENT