今日看點(diǎn):“危險(xiǎn)!立刻停下所有大型AI研究!”馬斯克、蘋果聯(lián)合創(chuàng)始人等署名公開信呼吁
當(dāng)全社會(huì)都在為AI的進(jìn)化而歡呼雀躍,全新的、意想不到的風(fēng)險(xiǎn)可能也正在悄悄醞釀。
【資料圖】
3月22日,生命未來(lái)研究所(Future of Life)向全社會(huì)發(fā)布了一封《暫停大型人工智能研究》的公開信,呼吁所有人工智能實(shí)驗(yàn)室立即暫停比GPT-4更強(qiáng)大的人工智能系統(tǒng)的訓(xùn)練,暫停時(shí)間至少為6個(gè)月。該機(jī)構(gòu)以“引導(dǎo)變革性技術(shù)造福生活,遠(yuǎn)離極端的大規(guī)模風(fēng)險(xiǎn)”為使命。
該機(jī)構(gòu)在信中提到:
我們不應(yīng)該冒著失去對(duì)文明控制的風(fēng)險(xiǎn),將決定委托給未經(jīng)選舉的技術(shù)領(lǐng)袖。只有當(dāng)確保強(qiáng)大的人工智能系統(tǒng)的效果是積極的,其風(fēng)險(xiǎn)是可控的才能繼續(xù)開發(fā)。
人工智能實(shí)驗(yàn)室和獨(dú)立專家應(yīng)在暫停期間,共同制定和實(shí)施一套先進(jìn)的人工智能設(shè)計(jì)和開發(fā)的共享安全協(xié)議,由獨(dú)立的外部專家進(jìn)行嚴(yán)格的審查和監(jiān)督。
截止目前,馬斯克、蘋果聯(lián)合創(chuàng)始人Steve Wozniak、Stability AI?創(chuàng)始人Emad Mostaque等上千名科技大佬和AI專家已經(jīng)簽署公開信。
值得一提的是,OpenAI CEO奧特曼在與MIT研究科學(xué)家Lex Fridman的最新對(duì)話中指出,AI已經(jīng)出現(xiàn)其無(wú)法解釋的推理能力,同時(shí)承認(rèn)“AI殺死人類”有一定可能性。
那么ChatGPT是如何看待公開信中AI對(duì)人類社會(huì)的影響?華爾街見聞專門詢問了ChatGPT 3.5,其表示隨著人工智能技術(shù)的不斷發(fā)展和普及,人工智能可能對(duì)社會(huì)和人類造成的影響將越來(lái)越大。這封公開信提出的呼吁和建議,應(yīng)該被視為引起更廣泛和深入討論的起點(diǎn)和參考,而不是一個(gè)終點(diǎn)或解決方案。
以下是公開信原文:
風(fēng)險(xiǎn)提示及免責(zé)條款 市場(chǎng)有風(fēng)險(xiǎn),投資需謹(jǐn)慎。本文不構(gòu)成個(gè)人投資建議,也未考慮到個(gè)別用戶特殊的投資目標(biāo)、財(cái)務(wù)狀況或需要。用戶應(yīng)考慮本文中的任何意見、觀點(diǎn)或結(jié)論是否符合其特定狀況。據(jù)此投資,責(zé)任自負(fù)。正如廣泛的研究和頂級(jí)人工智能實(shí)驗(yàn)室所承認(rèn)的,人工智能系統(tǒng)對(duì)社會(huì)和人類構(gòu)成較大的風(fēng)險(xiǎn)?!栋⑽髀羼R人工智能原則》中指出,高級(jí)人工智能可能代表著地球上生命歷史的深刻變革,應(yīng)該以相應(yīng)的謹(jǐn)慎和資源進(jìn)行規(guī)劃和管理。然而,盡管最近幾個(gè)月人工智能實(shí)驗(yàn)室掀起AI狂潮,開發(fā)和部署越來(lái)越強(qiáng)大的數(shù)字大腦,但目前沒有人能理解、預(yù)測(cè)或可靠地控制AI系統(tǒng),也沒有相應(yīng)水平的規(guī)劃和管理。
現(xiàn)在,人工智能在一般任務(wù)上變得與人類有競(jìng)爭(zhēng)力,我們必須問自己:我們應(yīng)該讓機(jī)器在信息渠道中宣傳不真實(shí)的信息嗎?我們是否應(yīng)該把所有的工作都自動(dòng)化,包括那些有成就感的工作?我們是否應(yīng)該開發(fā)非人類的大腦,使其最終超過人類數(shù)量,勝過人類的智慧,淘汰并取代人類?我們是否應(yīng)該冒著失去對(duì)我們文明控制的風(fēng)險(xiǎn)?這樣的決定絕不能委托給未經(jīng)選舉的技術(shù)領(lǐng)袖。只有當(dāng)我們確信強(qiáng)大的人工智能系統(tǒng)的效果是積極的,其風(fēng)險(xiǎn)是可控的,才應(yīng)該開發(fā)。同時(shí),這種信心必須得到驗(yàn)證,并隨著系統(tǒng)的潛在影響的大小而加強(qiáng)。OpenAI最近關(guān)于人工智能的聲明中指出,在開始訓(xùn)練未來(lái)的系統(tǒng)之前,可能必須得到獨(dú)立的審查,對(duì)于最先進(jìn)的努力,同意限制用于創(chuàng)建新模型的計(jì)算增長(zhǎng)速度。我們同意,現(xiàn)在就該采取行動(dòng)。
因此,我們呼吁所有人工智能實(shí)驗(yàn)室立即暫停比GPT-4更強(qiáng)大的人工智能系統(tǒng)的訓(xùn)練,時(shí)間至少持續(xù)6個(gè)月。這種暫停應(yīng)該是公開的、可核查的,并包括所有關(guān)鍵參與者者。如果這種禁令不能迅速實(shí)施,政府應(yīng)該介入并制定暫停令。
人工智能實(shí)驗(yàn)室和獨(dú)立專家應(yīng)在暫停期間,共同制定和實(shí)施一套先進(jìn)的人工智能設(shè)計(jì)和開發(fā)的共享安全協(xié)議,由獨(dú)立的外部專家進(jìn)行嚴(yán)格的審查和監(jiān)督。這些協(xié)議應(yīng)該確保遵守協(xié)議的系統(tǒng)是安全的。值得一提的是,這并不意味著暫停一般的人工智能開發(fā),只是從危險(xiǎn)的競(jìng)賽中退后一步,限制不可預(yù)測(cè)的研究和開發(fā)。
人工智能的研究和開發(fā)應(yīng)該重新聚焦于,使目前最先進(jìn)和強(qiáng)大的系統(tǒng)更加準(zhǔn)確、安全、可解釋、透明、穩(wěn)健、一致、值得信賴和忠誠(chéng)。
同時(shí),人工智能開發(fā)者必須與政策制定者合作,大幅加快開發(fā)強(qiáng)大的人工智能治理系統(tǒng)。這些至少應(yīng)該包括:專門針對(duì)人工智能的監(jiān)管機(jī)構(gòu);監(jiān)督和跟蹤高能力的人工智能系統(tǒng)和大型計(jì)算能力的硬件;出處和水印系統(tǒng)幫助區(qū)分真實(shí)和合成,并跟蹤模型泄漏;強(qiáng)大的審查和認(rèn)證生態(tài)系統(tǒng);對(duì)人工智能造成的傷害承擔(dān)責(zé)任;為人工智能安全技術(shù)研究提供強(qiáng)大的公共資金以及資源充足的機(jī)構(gòu),以應(yīng)對(duì)人工智能可能導(dǎo)致的巨大的經(jīng)濟(jì)和政治破壞。
人類可以通過人工智能享受繁榮的未來(lái)?,F(xiàn)在,我們成功地創(chuàng)建了強(qiáng)大的人工智能系統(tǒng),可以在這個(gè)“人工智能之夏”中獲得回報(bào),為所有人的明確利益設(shè)計(jì)這些系統(tǒng),并給社會(huì)一個(gè)適應(yīng)的機(jī)會(huì)。停止使用其他技術(shù)可能會(huì)對(duì)社會(huì)造成災(zāi)難性影響,因此我們必須保持準(zhǔn)備狀態(tài)。讓我們享受一個(gè)漫長(zhǎng)的人工智能夏天,而不是匆忙進(jìn)入秋天。
關(guān)鍵詞: