星洲网
星洲网
星洲网 登录
我的股票|星洲网 我的股票
Newsletter|星洲网 Newsletter 联络我们|星洲网 联络我们 登广告|星洲网 登广告 关于我们|星洲网 关于我们 活动|星洲网 活动

ADVERTISEMENT

ADVERTISEMENT

国际

|

国际头条

|
发布: 10:10pm 01/11/2023

苏纳克

全球人工智能(AI)安全峰会

AI前沿技术

AI焦虑症

苏纳克

全球人工智能(AI)安全峰会

AI前沿技术

AI焦虑症

全球AI安全峰會 倫敦開幕 聚焦AI風險與挑戰

 全球AI安全峰會倫敦拉開序幕 聚焦AI風險與挑戰
英國首相蘇納克在倫敦卡爾頓別墅露臺皇家學會的活動上,就AI的前景發表講話。(美聯社照片)

(萊切利公園1日綜合電)首屆全球人工智能(AI)安全峰會週三在英國拉開序幕,來自政界和科技界領袖將討論如何應對這一被稱為“AI前沿”(Frontier AI)的影響和挑戰。

28國約百官員高管參加

法新社報道,共自28個國家的約100名官員參加,其中包括美國副總統賀錦麗、歐盟委員會主席馮德萊恩、聯合國秘書長古特雷斯、特斯拉執行長馬斯克以及OpenAI、谷歌旗下Deepmind和Anthropic等美國主要AI公司的高管。

ADVERTISEMENT

最新的AI模型發佈讓人們得以一窺AI的潛力,但也引發了人們對一系列問題的擔憂,包括導致失業潮和網絡攻擊,以及人類對系統的實際控制。

英國首相蘇納克在上週的一次演講中強調,各國有必要“對我們面臨的風險達成共識”。

蘇納克:將力促AI風險國際聲明

蘇納克表示,英國將致力促成峰會就AI風險的本質與可能樣態達成共識,並在會後發佈全球第一個AI安全風險國際聲明。

他也稱,英國將建立全球第一所“AI安全研究院”,以協助促進各國對AI安全的理解。研究院將嚴謹檢視、評估及測試各類新AI模型與工具的能力和風險;其中,風險包括錯假訊息與偏見對公民社會的傷害。

此外,為確保各國對AI發展及其衍生風險的理解得以與時俱進、並及時更新國際共識,蘇納克稱,有必要取法聯合國“政府間氣候變遷問題小組”,建立由AI安全峰會與會各國及組織提名的全球AI專家小組。

英國政府6月宣佈,Google Deepmind、OpenAI、Anthropic等全球AI領導企業已同意讓英方優先或提早取得各企業開發的AI新模型,供科學研究和安全評估之用。

蘇納克稱,只有政府、而不是AI公司才能保護人們免受技術風險的影響。然而,針對AI風險管控,蘇納克指,英國的立場是“別急著規範管制”:必須鼓勵、而非抑制“創新”;更何況,“若尚未全盤透徹理解,該如何制定合理法規”。

英藉峰會彰顯國際領導地位

這次的峰會反映出英國政府渴望舉辦國際會議,以表明英國在3年前脫歐後未被孤立,仍能在世界舞臺上發揮領導作用。

峰會前夕,七國集團(G7)週一就開發最先進AI系統的公司達成了一項不具約束力的“行為準則”。

目前,中國和美國是世界上兩個AI大國。拜登週一公佈了自家的AI監管計劃,為AI系統制定安全標準,並要求企業將部分系統提交政府審查。

布魯塞爾也正在對世界上首個全面的AI法規進行最後的修改。而意大利、德國和法國部長也呼籲採取“創新友好的方式”來監管歐洲的AI發展 。

中派科技副部長吳朝暉出席

英國今次也邀請中國赴會,由科技部副部長吳朝暉代表出席。消息人士指出,中國外交部、科學院、阿里巴巴和騰訊等學術機構和企業的代表,與吳朝暉一同出席峰會。

根據議程,峰會第一天,英國數字部長多蘭將發表開幕演說,與會人士接著展開跨領域的圓桌和小組討論,議題包括AI前沿的不可測發展及風險,及國家政策制定者、科學界、國際社會該如何應對AI風險與機會。

進入第二天,峰會縮小與會規模,多蘭將再度召集各國代表、擬定後續作為,蘇納克則將與“少數”政府、企業與專家代表會晤。

據《金融時報》見到美國副總統賀錦麗的講稿摘錄,賀錦麗將在演講中提到,儘管“AI可能帶來深遠的好處,但它也有可能造成深遠的傷害,從我們以前從未見過的大規模AI網絡攻擊,到AI製造的生物武器,可能危及數百萬人的生命”。她認為這些風險“可能危及人類的生存”,“需要全球採取行動。”

英國因過度關注AI的風險而受到批評。該國週三承諾向世界各地的AI項目提供3800萬英鎊(約2.2兆令吉)的資金,並從非洲開跑。

據兩名知情人士透露,為了讓這次的活動保持勢頭,英國也將宣佈韓國為明年的下一屆AI安全峰會的東道主。

 全球AI安全峰會倫敦拉開序幕 聚焦AI風險與挑戰
為期兩天的英國全球AI安全峰會將在倫敦北部的米爾頓凱恩斯布萊切利公園別墅拉開序幕。(法新社照片)

加入歐美行列
中國AI專家籲加強監管

中國人工智能(AI)科學家加入西方學者的行列,呼籲對AI技術實施比英國、美國和歐盟提議的更嚴格的監管。

英國《金融時報》報道,本週三在英國布萊切利公園舉行的峰會上,幾位與會的中國學者簽署了一份聲明,他們警告,在未來幾十年裡,先進的AI將對“人類的生存構成威脅”。

姚期智:強制AI系統設“關閉”程序

以中國最著名的計算機科學家之一的姚期智為首的中國AI科學家團隊呼籲建立一個國際監管機構,對先進的AI系統進行強制性註冊和審核,加入即時“關閉”程序,並要求開發人員將30%的研究預算用於AI安全。

與美國總統拜登本週簽署的專注於涉及算法歧視和市場影響的AI行政令相比,中方的提議更側重於生存風險,而歐盟擬議的AI法案則重點關注保護隱私等權益。

不過,中國AI科學家的聯合聲明的重點與中國國內的AI法規不同,後者側重於內容管制和審查。中國政府最近宣佈了自己的全球AI治理倡議,突顯了美國對中國的晶片出口管制對AI應用造成的障礙的不公平。這一立場將遭到華盛頓及其盟友的強烈反對。上述聯合聲明也獲得眾多西方專家聯署,當中包括加拿大知名計算機科學家本吉奧。

姚期智表示:“從應對環境破壞中吸取教訓後,我們應該作為一個全球社區共同努力,確保AI的安全發展。”清華大學院長、科技巨頭百度前總裁張亞勤則稱,有必要確保未來的通用AI是“安全可靠的”。

 全球AI安全峰會倫敦拉開序幕 聚焦AI風險與挑戰
英國電腦科學家和數學家圖靈位於布萊切利公園的辦公室。他在這裡破譯截獲納粹德國的編碼信息方面發揮了關鍵作用,使盟軍能夠在許多重要交戰中擊敗軸心國,並因此幫助贏得二戰。(法新社照片)

專家批AI峰會焦點狹窄

儘管英國自詡是AI國際合作的推動力量,但英國對AI負面後果的強調讓一些業內人感到沮喪。業內人士更強調現有的AI問題,比如公司設計的AI模型缺乏透明度,以及其對種族或性別的偏見,而不是英相蘇納克所指出的更為危言聳聽的擔憂。

批評者指出,英國希望建立的共同倫理原則可能與以中美為多數的AI實驗室和科技巨頭起利益衝突。這可能將限制峰會達成任何有意義成果的可能性。

位於倫敦、專注於AI政策研究機構阿達洛夫萊斯研究所的臨時主任貝內特認為,這次峰會的焦點實際上有點太狹窄了。

她上週在查塔姆研究所的一個小組討論會上說,“我們似乎忘了更廣泛的風險和安全”,以及已經成為日常生活一部分的演算法。

加州大學伯克利分校研究演算法偏見的研究員拉吉點出英國已部署系統存在的問題,例如警察臉部識別系統對非裔錯誤檢測率要高得多,以及搞砸了一次高中考試的糟糕算法。

抨未將AI監管列議程

逾百個民間社會團體和專家在致蘇納克的一封公開信中表示,這次峰會是一個“錯失良機”,並將受AI影響最大的社區和工人邊緣化。

批評者認為,英國政府將峰會目標設定得太低,因為未將AI監管列入議程,而是專注於建立“護欄”。

拉吉說,蘇納克呼籲不要急於實施監管,這讓人想起“我們從美國許多企業代表那裡聽到的信息”,因此他對這些AI企業代表對英國官員“讀稿”並不感到驚訝。

指科企不應參與起草法規

她也認為,科技公司不應參與起草法規,因為它們往往“低估或淡化”法規的緊迫性和全面危害。她並補充,科技企業也不太願意支持“可能是必要的、但可能會危及他們的底線”的擬議法律。

英國政府堅稱,有來自政府、學術界、民間社會和商界的代表將赴會。

英國中左翼智庫公共政策研究所表示,如果讓科技行業在沒有政府監督的情況下自行監管,那將是一個“歷史性錯誤”。

該組織高級經濟學家榮格表示:“監管機構和公眾在很大程度上對AI在整個經濟中的應用情況一無所知,但自我監管對社交媒體公司、金融業、AI也不會起到作用。”

 全球AI安全峰會倫敦拉開序幕 聚焦AI風險與挑戰
位於倫敦北部的布萊切利公園博物館內的恩尼格瑪密碼機,當年英國特工因成功破解納粹德國的“恩尼格瑪密碼機”密碼,令同盟國洞悉德軍動向。(法新社照片)

AI前沿技術存隱憂
逾20專家聯署籲防範

由於尖端的人工智能(AI)系統,像ChatGPT這樣的AI聊天機器人以其寫演講稿、計劃旅遊行程或進行對話的能力震驚了世界,甚至可媲美人類。AI前沿技術受到熱烈討論之同時,人們也越來越擔心這項新興技術可能危及人類。

從英國政府到頂級研究人員,甚至是大型AI公司本身,每個人都在對AI前沿技術的未知危險發出警告,並呼籲採取保障措施,保護人們免受其威脅。

英屬哥倫比亞大學專注於AI和機器學習的計算機科學副教授克倫說:“我們需要認真對待這個問題,我們需要開始專注於努力解決這個問題。”

克倫與一群有影響力的研究人員上週發表了一篇論文,呼籲各國政府採取更多措施來管理AI帶來的風險。

談論AI最終會否消滅人類還言之過早。不過克倫說,“但AI有足夠的風險和發生的可能性。我們需要喚醒社會的注意力,努力解決這個問題,而不是等待最壞的情況發生。”

克倫等20多位專家包括被稱為“AI教父”的辛頓和本吉奧聯署了一份文件,呼籲政府和AI公司採取具體行動,例如將三分一的研發資源用於確保先進的自主AI的安全和道德使用。

AI前沿技術是最新、最強大系統的簡稱,這些系統可以達到AI能力的極限。它們基於AI基礎模型,而這些模型是基於從互聯網上收集的廣泛信息進行訓練的算法,以提供一般但非絕對可靠的知識基礎。

克倫說,這使得AI前沿技術的系統“很危險,因為它們並不完全瞭解情況”、“人們自以為自己知識淵博,這會給你帶來麻煩。”(美聯社)

 全球AI安全峰會倫敦拉開序幕 聚焦AI風險與挑戰
OpenAI的AI聊天機器人ChatGPT在備受追捧的同時,也面臨AI自身數據和模型方面的安全隱患。(美聯社照片)

AI來勢洶洶
人們患AI焦慮症

科技巨頭們正競相創造比人類更聰明的AI,但同時,人們也越來越擔心人工智能(AI)有一天會毀滅人類。

1.搶走人類飯碗?

ChatGPT的成功引發了一場爭論,即能夠根據日常語言中的簡單命令快速生成文本、圖像和音頻的“生成式AI”,會否會對人們的工作構成巨大威脅。

如今,自動化機器人已成為人類勞力的替代方案,被用於工廠、倉庫和田地裡。

然而,生成式AI瞄準著白領工作,如律師、醫生、教師、記者,甚至電腦程序員。

諮詢公司麥肯錫的一份報告估計,到本10年末,美國多達30%的工作時間可能會實現自動化,而生成式AI加速了這一趨勢。

2.抄襲者?

藝術家們對Dall-E、Midjourney和Stable Diffusion等軟件提出了抗議,這些軟件幾乎可以根據需要創建任何風格的圖像。

電腦程序員和作家也紛紛效仿,批評AI創造者在他們的工作中“訓練”軟件,使其能夠在未經許可或補償的情況下複製他們的風格或技能。

AI模型是通過在網上找到的大量信息和圖像,從而進行學習。

OpenAI聯合創始人奧特曼在9月的一次會議上表示:“這就是它的訓練基礎,只是人類巨大產出的一小部分。”

“我認為這將是一種強化人類的工具,而不是取代人類。”

3.假消息利器?

假新聞和深度造假已存在多年,但如今可通過生成式AI輕鬆製作出來,引發了人們對猖獗的在線欺騙行為的擔憂。

認知科學家和AI專家馬庫斯認為,如今存在最善於傳播虛假信息的人贏得選舉的風險。

他說:“民主取決於獲得做出正確決定所需的信息。但如果沒人知道什麼是真的,什麼是假的,那就完蛋了。”

4.欺詐幫兇?

生成式AI使詐騙者更容易創建令人信服的網絡釣魚電子郵件,甚至可能對目標有足夠的瞭解,再加以個性化。

AI技術讓不法分子複製人臉或聲音,從而誘騙人們上當,例如聲稱摯愛遇上危險。

拜登最近簽署了針對AI技術的行政命令,並形容AI模仿人類聲音的能力“令人震驚”。

如今甚至存在專門訓練的語言模型來生成此類惡意內容。

5.人類角色模型

與其他具有善惡潛力的技術一樣,主要的危險來自於使用它的人類。

由於AI是根據人類放在網絡上的數據進行訓練的,因此它可以反映社會的偏見、偏見和不公正。

AI也有可能使製造生物武器變得更容易、入侵銀行或電網、政府進行壓迫性的監視等等。

6.取代人類成為世界霸主?

一些業內人士擔心,AI未來會變得更聰明,以至於從人類手中奪取控制權。

OpenAI聯合創始人兼首席科學家蘇茨克維爾在最近的TED AI大會上表示:“不難想象,在未來的某個時候,我們的AI電腦將變得和人一樣聰明,甚至比人更聰明。”

“這種AI的影響將是巨大的。”

OpenAI及其競爭對手堅持認為,AI的目標是造福人類,解決氣候變化等長期棘手的問題。

與此同時,AI行業的領先者呼籲進行深思熟慮的監管,以防止人類滅絕等風險。(法新社)

 

柯林斯詞典評選 
“AI”年度最受關注單詞

《柯林斯詞典》出版商週二宣佈,“人工智能”(AI)被評為2023年年度詞彙。

柯林斯詞典的編纂者表示,這個決定是基於“AI”在過去一年中使用頻率的四倍增長,以及它作為代表未來發展的技術已經成為今年的熱門話題。

該公司總經理比克羅夫特說:“我們知道,AI已成為今年的一大焦點,因為其發展方式,以及迅速變得無處不在,融入了我們的生活,就像電子郵件、流媒體或任何其他曾經是未來、如今成為日常的技術一樣。”

柯林斯公司表示,他們的詞彙專家分析了柯林斯語料庫,該數據庫包含200多億個單詞,包括來自世界各地的網站、報紙、雜誌和書籍的書面材料。

它還從廣播、電視和日常對話中提取口語材料,同時每個月都有新數據輸入語料庫,以幫助柯林斯詞典的編輯從第一次使用的那一刻起識別新詞和詞義。

比克羅夫特說:“通過我們的柯林斯語料庫監測,這個詞的使用總是很有趣,毫無疑問,這也是2023年的話題。”

“nepo baby”成流行短語

柯林斯詞典上的其他詞彙還包括“nepo baby(裙帶寶貝)”,這個詞已經成為一個流行短語,用來形容那些在與父母相似的行業取得成功的名人孩子。

另外,“貪婪通脹”(Greedflation)指的是在生活成本危機中獲利的公司,以及“超低排放區”(Ulez)也被提及,Ulez指的是懲罰倫敦汙染最嚴重汽車的司機。

此外,“deinfluence”或“de- influence”等社交媒體詞彙也在柯林斯的名單上,這些詞彙的意思是“警告粉絲不要購買某些商品”。

2022年,“permacrisis”(永久危機)當選柯林斯年度詞彙,意即“長期的不穩定和不安全”;2020年是“lockdown”(封鎖);2016年是“Brexit”(英國脫歐)。(法新社)

打开全文

ADVERTISEMENT

热门新闻

百格视频

ADVERTISEMENT

点击 可阅读下一则新闻

ADVERTISEMENT