每日焦點!投資了50多家AI初創(chuàng)公司,這位專業(yè)投資者人呼吁:必須放緩通用人工智能AGI競賽!
創(chuàng)造超級人工智能的誘惑是巨大的,這往往會使得人們忘記了其存在的危險。
4月14日,人工智能賽道投資人Ian Hogarth在其專欄中發(fā)表了一篇名為《我們必須放慢通往上帝一般的人工智能的速度(We must slow down the race to God-like AI)》的文章,并警告當前人工智能公司的研究可能接近“一些潛在的風險”:
(資料圖)
在沒有民主監(jiān)督的情況下,由一小群私人公司做出可能影響地球上每一個生命的重大決定,這讓人感到非常錯誤。
那些競相建造第一個真正AGI的人有沒有計劃放慢速度,讓世界其他地方對他們正在做的事情有發(fā)言權?
Horgath表示,之所以將AGI稱為“上帝般的AI”,是因為在預期的發(fā)展路徑下,它將成為一臺可以自主學習和發(fā)展的超級智能計算機,并且可以在不需要監(jiān)督的情況下理解周圍的環(huán)境,可以改變周圍的世界:
像上帝一樣的人工智能可能是一種我們無法控制或理解的力量,它可能會導致人類的淘汰或毀滅。
他說,創(chuàng)建AGI是所有領先的人工智能公司的明確目標,但這些公司朝著這個目標前進的速度遠遠快于所有人的預期:
最近,幾家公司在創(chuàng)造上帝般的人工智能方面的競爭迅速加速。他們還不知道如何安全地追求他們的目標,也沒有監(jiān)管。
他們奔向終點線,卻不知道另一邊是什么。
Ian Hogarth是人工智能賽道的知名天使投資人,自2014年以來,他在歐洲和美國投資了50多家人工智能初創(chuàng)企業(yè),包括全球融資最高的生成式人工智能初創(chuàng)企業(yè)之一Anthropic,以及領先的歐洲人工智能防御公司Helsing。
Horgarth坦言,盡管他在過去投資了眾多人工智能初創(chuàng)企業(yè),但他始終存在著擔憂,而這種擔憂在今年OpenAI的成功后固化為了一種恐懼。
他也曾向研究人員發(fā)出預警,但與該領域的許多人一樣,相比自己應有的責任,這些研究人員“也被迅速的發(fā)展所吸引”。
潛在的危險
Horgath指出,當前AGI的游戲和聊天功能使公眾忽略了人工智能這項技術更嚴重的潛在危險。
早在2011年,DeepMind的首席科學家Shane Legg就將人工智能構成的生存威脅描述為“本世紀的頭號風險”:
如果一臺超級智能機器決定擺脫我們,我認為它會非常有效地做到這一點。
他還提到2021年,加州大學伯克利分校計算機科學教授Stuart Russell在演講中舉了一個聯(lián)合國要求AGI幫助降低海洋酸化的例子:
聯(lián)合國要求副產品是無毒的,不會傷害魚類。作為回應,人工智能系統(tǒng)提出了一種自我增殖的催化劑,實現(xiàn)了所有既定的目標。
但隨之而來的化學反應消耗了大氣中四分之一的氧氣。我們都會死得緩慢而痛苦。
如果我們把錯誤的目標交給一臺超級智能機器,我們就會制造一場我們注定會輸?shù)臎_突。
人工智能造成的更切實的傷害的例子已經(jīng)出現(xiàn)了。最近,一名比利時男子在與聊天機器人Chai交談后自殺身亡。
而另一家提供聊天機器人服務的公司Replika對其程序進行更改時,一些用戶感覺像“失去了最好的朋友”,經(jīng)歷了痛苦和失落感。
此外,人工智能現(xiàn)在可以復制一個人的聲音甚至臉,這使得其詐騙和提供虛假信息的可能性很大。
為什么要創(chuàng)造?
如果存在潛在的災難性風險,這些公司為什么要競相創(chuàng)造“上帝般的人工智能”?
Horgath表示,根據(jù)他與許多行業(yè)領袖的談話以及他們的公開聲明,似乎有三個主要動機:
他們真誠地相信,成功將對人類產生巨大的積極影響。
他們說服自己,如果他們的組織控制著像上帝一樣的人工智能,結果將對所有人都更好。
最后,是為了子孫后代。
成為第一個創(chuàng)造非凡新技術的人的誘惑是巨大的。在成就與潛在危害上,人工智能的開發(fā)在某種程度上可以類比原子彈。
1981年,弗里曼·戴森在紀錄片中描述了他參與核彈研發(fā)時的心理:
對于一個科學家,核武器的閃光是“不可抗拒(irresistible)”的。
它給人們一種無限力量的錯覺(an illusion of illimitable power)。
而在2019年,OpenAI創(chuàng)始人Sam Altman在接受采訪時,也引用了原子彈之父奧本海默的話:
技術的出現(xiàn)是因為它是可能的(Technology happens because it is possible)。
治理
Horgath說,他理解人們?yōu)槭裁丛敢庀嘈拧吧系郯愕摹比斯ぶ悄?,這意味著它或許能夠解決人類目前面臨的最大挑戰(zhàn):癌癥、氣候變化、貧困等。但即便如此,在沒有適當治理的情況下繼續(xù)下去的風險也太高了。
“不幸的是”,他說,“我認為比賽還會繼續(xù)。這可能需要一個重大的濫用事件——一場災難——來喚醒公眾和政府。”
他認為,與人工智能監(jiān)管相關的一個有意義的類比是工程生物學:
首先考慮生物病毒的“功能獲得”研究。這一活動受到嚴格的國際法規(guī)的約束,在實驗室生物安全事件發(fā)生后,有時因暫停而停止。這是最嚴格的監(jiān)督。
相比之下,新藥的開發(fā)是由FDA這樣的政府機構監(jiān)管的,新的治療方法要經(jīng)過一系列的臨床試驗。我們在監(jiān)管方式上存在明顯的不連續(xù),這取決于系統(tǒng)性風險的水平。
在我看來,我們可以用與功能獲得研究相同的方式接近“上帝般的”AGI系統(tǒng),而狹隘有用的人工智能系統(tǒng)可以像新藥一樣受到監(jiān)管。
他表示,支持各國政府實施重大監(jiān)管,并制定切實可行的計劃,將那些專注于一致性和安全性的人工智能初創(chuàng)企業(yè)轉變?yōu)轭愃茪W洲粒子物理研究所的組織。
最后,Horgath仍然強調,人類并非無力延緩這場競賽:
風險提示及免責條款 市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務狀況或需要。用戶應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據(jù)此投資,責任自負。如果你在政府工作,那就舉行聽證會,在宣誓的情況下詢問人工智能的領導者,他們開發(fā)AGI的時間表。要求他們在測試當前模型時發(fā)現(xiàn)的安全問題的完整記錄。要求他們提供證據(jù),證明他們理解這些系統(tǒng)是如何工作的,以及他們對實現(xiàn)一致性的信心。邀請獨立專家參加聽證會,對這些實驗室進行交叉檢查。
如果你在一個大型實驗室工作,試圖構建“上帝般的”人工智能,就所有這些問題詢問你的領導。如果你在領先的實驗室工作,這一點尤其重要。
到目前為止,人類仍然是學習過程的必要組成部分,這是人工智能進步的特征。
總有一天,會有人想出辦法把我們從循環(huán)中剔除,創(chuàng)造出一個像上帝一樣能夠無限自我完善的人工智能。到那時,可能就太晚了。
關鍵詞: