星洲网
星洲网
星洲网 登入
Newsletter|星洲网 Newsletter 联络我们|星洲网 联络我们 登广告|星洲网 登广告 关于我们|星洲网 关于我们 活动|星洲网 活动

ADVERTISEMENT

ADVERTISEMENT

国内

|

全国综合

|
发布: 5:06pm 06/11/2024

AI

规范

远见高峰会

完善

国际监管

AI

规范

远见高峰会

完善

国际监管

远见高峰会 | 哈拉瑞:免技术失控 须完善AI国际监管规范

耶路撒冷希伯来大学历史系教授哈拉瑞今日在远见高峰会指出:随著AI时代带来数十亿的AI行为者正被引入社会,人类需要时间适应、学习与AI互动之外,当务之急,便是制订更完善的国际监管规范,避免AI技术失控
哈拉瑞呼吁以史为鉴,歴史学家及哲学家必须提醒大众Al的危险和威胁。 (远见高峰会提供)

(台北6日讯)耶路撒冷希伯来大学历史系教授哈拉瑞指出,随着时代带来数十亿的AI行为者正被引入社会,人类需要时间适应、学习与AI互动之外,当务之急,便是制订更,避免AI技术失控。

他今日在发表演讲时,将AI革命放入漫长的“资讯史”洪流之中,以独特的史观,指出人类每次面对技术革新,从文字、印刷术、电报到大众媒体,社会都出现翻天覆地的改变,这次的AI革命也不例外。

ADVERTISEMENT

谨慎应对2危险

他分析,AI的主要危险可分为两种。

“首先,我们可能会重蹈覆辙,让历史上曾随着资讯科技或技术发展而出现的问题再度上演。”

他以工业革命为例,强调“过渡期”才是最危险的时刻。当时,人们不明瞭如何建立工业社会,认定工业社会的前提仰赖着建立一个“帝国”,因此展开了一系列实验,却衍生了众多灾难性的实验结果,例如法西斯主义、共产主义的极权体制。

如果为了学习、适应AI,人类必须经历同样的试错过程,“我们又将如何建立一个以AI为基础的社会呢?”哈拉瑞抛出疑问,若未谨慎应对当前AI革命的“过渡期”,是否将导致众多毁灭性的实验结果,无人可以预料。

至于第二个AI将带来的危险,哈拉瑞分析,是AI与过往的工具有一个根本上的不同,它自身便是行为者,“是历史上第一项能够自主做出决策的技术。”

指令偏误将致破坏性结果

因此,哈拉瑞直言,他更偏好将AI缩写诠释为“外星智慧”,形容AI作为非有机的行为者,可以产出想法、自主学习,但处理资讯、判断决策的过程,却和有机人脑的逻辑截然不同。

当过往可以全然由人类操控的技术,已发展至可自由做出决断,哈拉瑞提醒,即便AI本身无害,仍有可能因为指令偏误,导致意料之外的破坏性结果,例如脱离控制、危害、奴役甚至消灭人类。

“这不是预言,也并非无法避免。”

吁记取工业革命教训

面对AI革新背后潜藏的巨大潜力,各大企业家皆野心勃勃地全速发展。哈拉瑞以历史为证,呼吁大众记取工业革命的惨痛教训,“强调AI的危险和威胁,便成为像我这样的历史学家和哲学家的责任。”

远见高峰会由远见.天下文化事业群主办,媒体伙伴包括美国《世界日报》、马来西亚《星洲日报》、《新浪财经》、新加坡《联合早报》、《8视界》和《东方财经》。

打开全文

ADVERTISEMENT

热门新闻

百格视频

ADVERTISEMENT

点击 可阅读下一则新闻

ADVERTISEMENT