亚洲欧美精品中文三区|亚洲精品美女AV在线|性生潮久久久不久久久久|免费 无码 国产在现看|亚洲欧美国产精品专区久久|少妇的丰满3中文字幕免费|欧美成人怡红院在线观看视频|亚洲国产中文精品看片在线观看

當(dāng)前通訊!GPT-4論文竟有隱藏線索:GPT-5或完成訓(xùn)練、OpenAI兩年內(nèi)接近AGI

GPT-4,火爆,非?;鸨?/p>

不過(guò)家人們,在鋪天蓋地的叫好聲中,有件事可能你是“萬(wàn)萬(wàn)沒(méi)想到”——

在OpenAI公布的技術(shù)論文里,竟然藏著九大隱秘的線索!


(資料圖)

這些線索是由國(guó)外博主AI Explained發(fā)現(xiàn)并整理。

他宛如一位細(xì)節(jié)狂魔,從長(zhǎng)達(dá)98頁(yè)論文中,逐個(gè)揭秘這些“隱匿的角落”,包括:

GPT-5可能已經(jīng)完成訓(xùn)練

GPT-4出現(xiàn)過(guò)“掛掉”的情況

OpenAI兩年內(nèi)或?qū)崿F(xiàn)接近AGI

……

發(fā)現(xiàn)一:GPT4出現(xiàn)過(guò)“掛掉”的情況

在GPT-4技術(shù)論文的第53頁(yè)處,OpenAI提到了這樣一個(gè)機(jī)構(gòu)——Alignment Research Center(ARC)。

這家機(jī)構(gòu)主要做的事情,就是專門研究AI如何對(duì)齊(alignment)人類利益。

而OpenAI在開發(fā)GPT-4的早期階段,便給ARC開了搶先體驗(yàn)的后門,希望他們能夠評(píng)估GPT-4的兩項(xiàng)能力:

模型自主復(fù)制能力

模型獲取資源能力

雖然OpenAI在論文中強(qiáng)調(diào)了“ARC沒(méi)法微調(diào)早期版本的GPT-4”、“他們無(wú)權(quán)訪問(wèn)GPT-4的最終版本”;也強(qiáng)調(diào)了測(cè)試結(jié)果顯示GPT-4在上述兩個(gè)能力的效率不高(降低AI倫理隱患)。

但眼尖的博主揪出來(lái)的是接下來(lái)的一句話:

(found it ineffective at) avoiding being shut down “in the wild”.

在自然環(huán)境中,GPT-4會(huì)避免“掛掉”。

博主的意思是,既然OpenAI選擇讓ARC去測(cè)試評(píng)估GPT-4會(huì)不會(huì)“掛掉”,說(shuō)明此前必定出現(xiàn)過(guò)這種情況。

那么延伸出來(lái)的隱患就是,如果ARC在測(cè)試過(guò)程中其實(shí)是失敗的怎么辦;或者未來(lái)真出現(xiàn)了“掛掉”的情況,又將怎么處理。

基于此,博主便有了第二個(gè)發(fā)現(xiàn):

發(fā)現(xiàn)二:主動(dòng)要求自我監(jiān)管,很罕見(jiàn)

在第2頁(yè)的腳注中,OpenAI注釋了這么一句話:

OpenAI will soon publish additional thoughts on the social and economic implications of AI systems, including the need for effective regulation.

OpenAI將很快發(fā)布關(guān)于AI系統(tǒng)的社會(huì)和經(jīng)濟(jì)影響的其它思考,包括有效監(jiān)管的必要性。

博主認(rèn)為,一個(gè)行業(yè)主動(dòng)要求監(jiān)管自己,這是個(gè)非常罕見(jiàn)的現(xiàn)象。

事實(shí)上,OpenAI老板Sam Altman此前發(fā)表的言論比這還要直白。

當(dāng)時(shí)Altman發(fā)表了關(guān)于SVB倒閉的推文,他認(rèn)為“我們需要對(duì)銀行做更多的監(jiān)管”;有人就評(píng)論回懟了:“他從來(lái)不會(huì)說(shuō)‘我們需要對(duì)AI做更多的監(jiān)管’”。

結(jié)果Altman直截了當(dāng)?shù)幕貜?fù)說(shuō):

絕對(duì)需要。

博主認(rèn)為,這個(gè)AI行業(yè)正在呼吁進(jìn)行監(jiān)管,至于監(jiān)管后的結(jié)果如何,是值得拭目以待的。

發(fā)現(xiàn)三:與微軟高層想法背道而馳

接下來(lái)的發(fā)現(xiàn),是根據(jù)論文第57頁(yè)中的這句話:

One concern of particular importance to OpenAI is the risk of racing dynamics leading to a decline in safety standards, the diffusion of bad norms, and accelerated AI timelines, each of which heighten societal risks associated with AI.

對(duì)OpenAI來(lái)說(shuō),(科技的)競(jìng)賽會(huì)導(dǎo)致安全標(biāo)準(zhǔn)的下降、不良規(guī)范的擴(kuò)散、AI發(fā)展進(jìn)程的加速,它們都加劇了與人工智能相關(guān)的社會(huì)風(fēng)險(xiǎn)。

但很奇怪的一點(diǎn)是,OpenAI所提到的擔(dān)憂,尤其是“AI發(fā)展進(jìn)程的加速”,似乎是與微軟高層的想法背道而馳。

因?yàn)樵诖饲暗谋现蟹Q,微軟CEO和CTO的壓力很大,他們希望OpenAI的模型能盡快讓用戶用起來(lái)。

有些人在看到這則消息時(shí)是比較興奮,但同樣也有一波人發(fā)出了跟OpenAI一樣的擔(dān)憂。

博主認(rèn)為,不論如何,可以肯定的一點(diǎn)是OpenAI和微軟在這件事的想法是相悖的。

發(fā)現(xiàn)四:OpenAI會(huì)協(xié)助超越它的公司

第四個(gè)發(fā)現(xiàn)的線索,是來(lái)自與“發(fā)現(xiàn)三”同一頁(yè)的腳注:

這段腳注展示了OpenAI一個(gè)非常大膽的承諾:

如果另一家公司在我們之前實(shí)現(xiàn)了接近AGI(通用人工智能),那我們承諾不會(huì)跟它做競(jìng)爭(zhēng),相反,會(huì)協(xié)助完成那個(gè)項(xiàng)目。

但這種情況發(fā)生的條件,可能是另一家公司需得在未來(lái)兩年內(nèi),成功接近AGI的機(jī)會(huì)在一半或以上

而這里提到的AGI,OpenAI和Altam在官方博客中已經(jīng)給出了定義——

普遍比人類更聰明,并且有益于全人類的人工智能系統(tǒng)。

因此,博主認(rèn)為,這段腳注要么意味著OpenAI在未來(lái)兩年內(nèi)將實(shí)現(xiàn)AGI,要么意味著他們放棄了一切并與另一家公司展開了合作。

發(fā)現(xiàn)五:雇傭“超級(jí)預(yù)測(cè)員”

博主的下一個(gè)發(fā)現(xiàn),是來(lái)自論文第57中的一段話。

這段話大致的意思就是,OpenAI雇傭了預(yù)測(cè)專家,來(lái)預(yù)測(cè)當(dāng)他們部署了GPT-4之后會(huì)帶來(lái)怎樣的風(fēng)險(xiǎn)。

然后博主順藤摸瓜,發(fā)現(xiàn)了這些所謂的“超級(jí)預(yù)測(cè)員”的廬山真面目。

這些“超級(jí)預(yù)測(cè)員”的能力已經(jīng)得到了廣泛地認(rèn)可,有報(bào)道稱,他們的預(yù)測(cè)準(zhǔn)確率,甚至比那些有獨(dú)家信息、情報(bào)的分析師還要高出30%。

正如我們剛才提到的,OpenAI邀請(qǐng)這些“超級(jí)預(yù)測(cè)員”,來(lái)預(yù)測(cè)部署GPT-4后可能存在的風(fēng)險(xiǎn),并采取相應(yīng)措施來(lái)規(guī)避。

其中,“超級(jí)預(yù)測(cè)員”建議將GPT-4部署時(shí)間推遲6個(gè)月,也就是今年秋季左右;但很顯然,OpenAI并沒(méi)有采納他們的建議。

博主對(duì)此認(rèn)為,OpenAI這么做的原因,可能是來(lái)自微軟的壓力。

發(fā)現(xiàn)六:征服常識(shí)

在這篇論文中,OpenAI展示了眾多基準(zhǔn)測(cè)試的圖表,大家在昨天鋪天蓋地的傳播過(guò)程中應(yīng)該也見(jiàn)到了。

但博主在這個(gè)發(fā)現(xiàn)中要強(qiáng)調(diào)的是位于第7頁(yè)的一項(xiàng)基準(zhǔn)測(cè)試,尤其是聚焦到了“HellaSwag”這一項(xiàng)。

HellaSwag的內(nèi)容主要是常識(shí)推理,這就和GPT-4發(fā)布時(shí)宣布的“已經(jīng)達(dá)到了人類的常識(shí)水平”相匹配。

不過(guò)博主也承認(rèn),這一點(diǎn)并沒(méi)有“通過(guò)律師考試”等能力那么吸引人,但這也算得上是人類科技發(fā)展的里程碑。

但常識(shí)是怎么測(cè)試的?我們又如何評(píng)判GPT-4已經(jīng)達(dá)到了人類水平?

為此,博主深入研究了與之相關(guān)的論文研究:

博主在論文中找到了相關(guān)數(shù)據(jù),在“人類”那一欄中,分?jǐn)?shù)分布在了94-96.5之間。

而GPT-4的95.3,便正好在這個(gè)區(qū)間之間。

發(fā)現(xiàn)七:GPT-5可能已經(jīng)完成訓(xùn)練

第七個(gè)發(fā)現(xiàn),同樣是在論文中的第57頁(yè):

我們?cè)诎l(fā)布GPT-4之前花費(fèi)8個(gè)月時(shí)間進(jìn)行安全研究、風(fēng)險(xiǎn)評(píng)估和迭代。

也就是說(shuō),OpenAI在去年年底推出ChatGPT的時(shí)候,已經(jīng)有了GPT-4。

于是乎,博主便預(yù)測(cè)GPT-5的訓(xùn)練時(shí)間不會(huì)很久,甚至他認(rèn)為GPT-5已經(jīng)可能訓(xùn)練完成。

但接下來(lái)的問(wèn)題是漫長(zhǎng)的安全研究和風(fēng)險(xiǎn)評(píng)估,可能是幾個(gè)月,也可能是一年甚至更久。

發(fā)現(xiàn)八:試一把雙刃劍

第8個(gè)發(fā)現(xiàn),是來(lái)自論文的第56頁(yè)。

這段話說(shuō)的是:

GPT-4對(duì)經(jīng)濟(jì)和勞動(dòng)力的影響,應(yīng)成為政策制定者和其他利益相關(guān)者的關(guān)鍵考慮因素。

雖然現(xiàn)有的研究主要集中在人工智能和生成模型如何給人類加buff,但GPT-4或后續(xù)模型可能會(huì)導(dǎo)致某些工作的自動(dòng)化。

OpenAI這段話背后想傳達(dá)的點(diǎn)比較明顯,就是我們經(jīng)常提到的“科技是把雙刃劍”。

博主找了相當(dāng)多的證據(jù)表明,像ChatGPT、GitHub Copilot這些AI工具,確確實(shí)實(shí)地提高了相關(guān)工作者的效率。

但他更關(guān)注的是論文中這段話的后半句,也就是OpenAI給出的“警告”——導(dǎo)致某些工作的自動(dòng)化。

博主對(duì)此比較認(rèn)同,畢竟在GPT-4的能力可以在某些特定領(lǐng)域中以人類10倍甚至更高的效率來(lái)完成。

放眼未來(lái),這很可能會(huì)導(dǎo)致相關(guān)工作人員工資降低,或者需得借助這些AI工具完成以前工作量的數(shù)倍等一系列問(wèn)題。

發(fā)現(xiàn)九:學(xué)會(huì)拒絕

博主最后一個(gè)發(fā)現(xiàn),來(lái)自論文的第60頁(yè):

OpenAI讓GPT-4學(xué)會(huì)拒絕的方法,叫做基于規(guī)則的獎(jiǎng)勵(lì)模型(RBRMs)。

博主概括了這種方法的工作流程:給GPT-4一組要遵守的原則,如果模型遵守了這些原則,那么就會(huì)提供相應(yīng)的獎(jiǎng)勵(lì)。

他認(rèn)為OpenAI正在用人工智能的力量,讓AI模型朝著符合人類原則的方向發(fā)展。

但目前OpenAI并沒(méi)有對(duì)此做更加細(xì)致和深入的介紹。

參考鏈接:

[1]?https://www.youtube.com/watch?v=ufQmq6X22rM
[2]?https://cdn.openai.com/papers/gpt-4.pdf

本文作者:金磊,文章來(lái)源:量子位,原文標(biāo)題:《GPT-4論文竟有隱藏線索:GPT-5或完成訓(xùn)練、OpenAI兩年內(nèi)接近AGI》。??

風(fēng)險(xiǎn)提示及免責(zé)條款 市場(chǎng)有風(fēng)險(xiǎn),投資需謹(jǐn)慎。本文不構(gòu)成個(gè)人投資建議,也未考慮到個(gè)別用戶特殊的投資目標(biāo)、財(cái)務(wù)狀況或需要。用戶應(yīng)考慮本文中的任何意見(jiàn)、觀點(diǎn)或結(jié)論是否符合其特定狀況。據(jù)此投資,責(zé)任自負(fù)。

關(guān)鍵詞: