亚洲欧美精品中文三区|亚洲精品美女AV在线|性生潮久久久不久久久久|免费 无码 国产在现看|亚洲欧美国产精品专区久久|少妇的丰满3中文字幕免费|欧美成人怡红院在线观看视频|亚洲国产中文精品看片在线观看

當(dāng)前頭條:“向量數(shù)據(jù)庫先鋒“Zilliz創(chuàng)始人:大模型時(shí)代,需要新的“存儲(chǔ)基建”

大模型在以“日更”進(jìn)展的同時(shí),不知不覺也帶來一股焦慮情緒:估值 130 億美元的 AI 寫作工具 Grammarly 在 ChatGPT 發(fā)布后網(wǎng)站用戶直線下降;AI 聊天機(jī)器人獨(dú)角獸公司 Character.AI 的自建大模型在 ChatGPT 進(jìn)步之下,被質(zhì)疑能否形成足夠的競(jìng)爭(zhēng)壁壘 ......


【資料圖】

ChatGPT Plugins插件發(fā)布之后,更多創(chuàng)業(yè)者開始擔(dān)憂大模型的技術(shù)進(jìn)步會(huì)把自己卷入「打擊射程」,瞬時(shí)抹掉自己所在領(lǐng)域的技術(shù)積累和優(yōu)勢(shì)。

我們好像陷入了大模型所帶來的「WTF 綜合癥」——在過山車般的技術(shù)加速度中,人們會(huì)在「what the fuck」的驚訝和「what"s the future」的思索之間,反復(fù)橫跳。

冷靜下來思考,在底層大模型的國(guó)產(chǎn)化浪潮以及應(yīng)用層的紅紅火火之外,大模型領(lǐng)域還有什么是值得被關(guān)注的?

向量數(shù)據(jù)庫(Vector database)在我們與行業(yè)人士的各種交流中屢被提及。它被看做 AI Infra 中的關(guān)鍵一環(huán),這種專門用于存儲(chǔ)、索引和查詢嵌入向量的數(shù)據(jù)庫系統(tǒng),可以讓大模型更高效率的存儲(chǔ)和讀取知識(shí)庫,并且以更低的成本進(jìn)行 finetune(模型微調(diào)),還將進(jìn)一步在 AI Native 應(yīng)用的演進(jìn)中扮演重要作用。

向量數(shù)據(jù)庫之于大模型的價(jià)值和意義究竟是什么?它會(huì)不會(huì)被大模型本身的進(jìn)步吞掉?圍繞著大模型的軟件開發(fā)范式將會(huì)被如何構(gòu)建?向量數(shù)據(jù)庫能發(fā)揮的作用是什么?

帶著這些問題,極客公園找到了Zilliz 創(chuàng)始人& CEO 星爵進(jìn)行交流。Zilliz成立于中國(guó)上海,總部在美國(guó)硅谷,于2019年開源了全球首個(gè)向量數(shù)據(jù)庫產(chǎn)品 Milvus,它在 GitHub 上獲得了超過 1.8 萬顆 Star,在全球擁有超過 1000 家企業(yè)用戶,成為目前全球最流行的開源向量數(shù)據(jù)庫。而早在 2022 年,Zilliz 就完成了累計(jì)超過 1.03 億美金的 B 輪融資,估值達(dá)到驚人的 6 億美金。

圖|Zilliz 在 SIGMOD’21 發(fā)表的論文,Milvus 是全球真正意義的第一款向量數(shù)據(jù)庫產(chǎn)品

在大模型熱潮之前,整個(gè)向量數(shù)據(jù)庫市場(chǎng)一年只有幾億美元。直到去年 ChatGPT 推出,如 killer app(殺手級(jí)應(yīng)用)一般拉高了市場(chǎng)天花板,也讓大模型和向量數(shù)據(jù)庫開始真正出圈。

在今年 3 月的 NVIDIA GTC 大會(huì),黃仁勛首次提及向量數(shù)據(jù)庫,并強(qiáng)調(diào)對(duì)于構(gòu)建專有大型語言模型的組織而言,向量數(shù)據(jù)庫至關(guān)重要,而 Zilliz 也被官宣是 NVIDIA 的向量存儲(chǔ)的官方合作伙伴。

緊接著,OpenAI ChatGPT plugins 發(fā)布的官方文章中,Milvus 和 Zilliz Cloud 同時(shí)作為首批插件合作伙伴被提及,成為唯一一家開源項(xiàng)目與商業(yè)化云產(chǎn)品同時(shí)入選的向量數(shù)據(jù)庫公司。而在近一個(gè)月之內(nèi),向量數(shù)據(jù)庫迎來了融資潮,Qdrant 、Chroma 和 Weaviate 紛紛獲得融資;而?Pinecone?也正式官宣了新的 1 億美金 B 輪融資,估值達(dá)到了 7.5 億美元 ?......

圖| Zilliz 創(chuàng)始人 & CEO 星爵


從 3 月 到 5 月,我們與星爵一起見證了向量數(shù)據(jù)庫從默默無聞到成為行業(yè)大熱的完整過程,并和他陸續(xù)探討了大模型的演化、向量數(shù)據(jù)庫的價(jià)值和意義,以及 AI Native 應(yīng)用演進(jìn)等一系列問題。

以下是對(duì)話精選,由極客公園整理:

01?大模型和小模型的混合時(shí)代

極客公園:在你看來大模型是什么?

星爵:大模型是一個(gè)智能處理器,是一個(gè)大腦。傳統(tǒng)處理器是人工去編排電路,而大模型是用神經(jīng)網(wǎng)絡(luò)去編排電路。

大模型未來發(fā)展會(huì)更加強(qiáng)大,一方面會(huì)有中央處理的大模型,像 ChatGPT 的云端大腦,后面有數(shù)萬塊 GPU,它會(huì)奔著更大規(guī)模、更強(qiáng)能力的方向發(fā)展,但它的缺點(diǎn)也很明顯,能耗和成本也比較高;另外一個(gè)維度,它會(huì)往更高的效率、更低的能耗比方向走,會(huì)有小模型出來,像 Dolly 模型(注:Databricks 發(fā)布的擁有 120 億參數(shù),類 ChatGPT 開源模型),每個(gè)人手提一個(gè)「大腦」。

極客公園:這個(gè)結(jié)論是怎么得出來的?

星爵:我是站在人類的科技發(fā)展史去看的,而不是大模型本身。

大模型本質(zhì)是開啟了人類智能計(jì)算的一個(gè)時(shí)代,但是計(jì)算能力一定會(huì)分化的,不可能說只有一個(gè)。

人類的計(jì)算最終都是從大分化成小的,「大」不見得是一個(gè)適合所有產(chǎn)品的需求。計(jì)算機(jī)最開始是主機(jī)時(shí)代,是在大機(jī)房里面的大型機(jī),而現(xiàn)在 ChatGPT 本質(zhì)也是如此。對(duì)于這種計(jì)算方式來說,缺點(diǎn)明顯,響應(yīng)很慢,吞吐率也不高。

出現(xiàn)小型化的趨勢(shì)是因?yàn)楣δ艿男枨笤诜只绻阋k公,你買一個(gè)上網(wǎng)的筆記本電腦就可以了,不需要一個(gè)超級(jí)計(jì)算機(jī)。

極客公園:會(huì)像主機(jī)到微機(jī)的時(shí)代演變,有清晰的階段劃分嗎?還是說會(huì)是一個(gè)大模型和小模型混合的時(shí)代?

星爵:從大模型到小模型的大量涌現(xiàn),這個(gè)演進(jìn)其實(shí)就花了 6 個(gè)月,人類文明的進(jìn)化已經(jīng)變得更快了?,F(xiàn)在如果你想跑一個(gè)微軟出的 Deep Speed Chat 這種小模型,在筆記本上就行。

你可以認(rèn)為小模型就相當(dāng)于現(xiàn)在的 PC,大模型是現(xiàn)在的超級(jí)計(jì)算機(jī)。

我覺得大模型和小模型兩者會(huì)并存下去。需求分化的本質(zhì)背后,并不是一個(gè)技術(shù)問題,而是資源如何最優(yōu)化配置的問題。如果說集中式的管理是最優(yōu)的話,那么一定會(huì)做集中式的。

極客公園:大模型和向量數(shù)據(jù)庫是什么關(guān)系?大多數(shù)向量數(shù)據(jù)庫公司其實(shí)在大模型熱潮出現(xiàn)前就有了,比較好奇大模型給向量數(shù)據(jù)庫帶來了什么?

星爵:在我看來,大模型是新一代的 AI 處理器,提供的是數(shù)據(jù)處理能力;那么向量數(shù)據(jù)庫提供就是 memory,是它的存儲(chǔ)。

向量數(shù)據(jù)庫之前應(yīng)用比較分散,ChatGPT 的出現(xiàn),讓向量數(shù)據(jù)庫迎來了killer app 時(shí)刻,一下子把行業(yè)的天花板拉高了幾個(gè)數(shù)量級(jí),把向量數(shù)據(jù)庫面向的開發(fā)者從幾萬提升到全球幾千萬。就像過去做移動(dòng)開發(fā)和應(yīng)用開發(fā),可能大家都會(huì)人手一個(gè) MongoDB 數(shù)據(jù)庫,以后也會(huì)人手一個(gè)向量數(shù)據(jù)庫。

極客公園:目前大模型發(fā)展非常迅猛,會(huì)不會(huì)把向量數(shù)據(jù)庫提供的價(jià)值直接被吞到大模型的體系里?

星爵:不管是大模型還是小模型,它本質(zhì)上是對(duì)全世界的知識(shí)和運(yùn)行規(guī)則的一個(gè)編碼,是對(duì)我們?nèi)祟愃袛?shù)據(jù)的一個(gè)壓縮。

但很難真的把所有數(shù)據(jù)放到大模型里面。比如有一種觀點(diǎn),ChatGPT 是一個(gè)相當(dāng)高效的壓縮編碼方式,但它并不是無損壓縮,并不能擁有所有知識(shí),這個(gè)過程必然帶來熵減和信息損失。如果把所有信息都編碼到神經(jīng)網(wǎng)絡(luò)里面去,那么神經(jīng)網(wǎng)絡(luò)就會(huì)變得特別臃腫,參數(shù)規(guī)模會(huì)巨大無比,從而導(dǎo)致運(yùn)行緩慢。所以不能全放進(jìn)去,這意味著它可能需要外部的存儲(chǔ)。

在計(jì)算機(jī)結(jié)構(gòu)中也有類似的情況:CPU 里會(huì)有一個(gè)片上存儲(chǔ) SRAM,一般會(huì)做得比較小,因?yàn)槠洗鎯?chǔ)的價(jià)格比內(nèi)存 DRAM 要貴 100 倍,比磁盤要貴 1 萬倍。神經(jīng)網(wǎng)絡(luò)就是大模型的片上存儲(chǔ),更大規(guī)模的模型擁有更多的片上存儲(chǔ)。但是用神經(jīng)網(wǎng)絡(luò)來存儲(chǔ)數(shù)據(jù)是相當(dāng)昂貴的,會(huì)導(dǎo)致網(wǎng)絡(luò)規(guī)模的急劇增大,所以大模型也需要一種更高效的數(shù)據(jù)存儲(chǔ)方式,這就是神經(jīng)網(wǎng)絡(luò)外的片外存儲(chǔ),向量數(shù)據(jù)庫就是它的片外存儲(chǔ)。如果運(yùn)行時(shí)發(fā)現(xiàn)有信息不知道,就到向量數(shù)據(jù)庫里面來取。而向量數(shù)據(jù)庫的存儲(chǔ)成本比存到神經(jīng)網(wǎng)絡(luò)的成本要低2 4 個(gè)數(shù)量級(jí)。

極客公園:你拿硬件做了類比,但是我們也可以看到有芯片公司是在做存算一體的架構(gòu),存儲(chǔ)和計(jì)算放在一起。

星爵:本質(zhì)上每一種計(jì)算都需要存儲(chǔ),計(jì)算和存儲(chǔ)是兩個(gè)最基本的抽象,但它們是可以相互轉(zhuǎn)化的,可以用存儲(chǔ)換計(jì)算,也可以用計(jì)算換存儲(chǔ)。在達(dá)到一個(gè)更好地投入產(chǎn)出比的過程中,需要有一個(gè)平衡。

人類的第一個(gè)計(jì)算機(jī)就是存算一體的,后來為什么要分開?因?yàn)樾屎统杀?。為什么說大模型不能夠完全取代向量數(shù)據(jù)庫,這是因?yàn)橄蛄繑?shù)據(jù)庫的存儲(chǔ)成本比大模型要低一個(gè) 1 千倍到 1 萬倍,就看你要不要這么做而已。歷史上,存儲(chǔ)永遠(yuǎn)比計(jì)算便宜,計(jì)算也在降價(jià),但你發(fā)現(xiàn)存儲(chǔ)一直更便宜。

極客公園:但這個(gè)邏輯其實(shí)是硬件的邏輯,軟件也會(huì)如此嗎?

星爵:軟件和硬件是相輔相成,互為支撐的。軟件里為什么要把中間計(jì)算過程保存下來,不重算一次?為什么要做緩存,要保存中間結(jié)果?因?yàn)楸4媸菫榱松偎悖偎愕脑蚴怯每臻g換時(shí)間,用存儲(chǔ)換計(jì)算資源,這在軟件里面是最經(jīng)典的一種設(shè)計(jì)模式。之所以軟件這么設(shè)計(jì),也是硬件特性所決定的:存儲(chǔ)比計(jì)算要更便宜。

02?重新理解向量數(shù)據(jù)庫的價(jià)值

極客公園:最近有個(gè)玩笑說,上一波投AIGC VC 公司基本上都后悔了,意思是在大模型之下很多應(yīng)用層公司的壁壘都被抹掉了。私域數(shù)據(jù)會(huì)不會(huì)是構(gòu)成競(jìng)爭(zhēng)力的核心,向量數(shù)據(jù)庫是不是可以在這個(gè)方向起作用?

星爵:幫助用戶管理私域數(shù)據(jù),確實(shí)是目前向量數(shù)據(jù)庫提供的核心應(yīng)用場(chǎng)景。很多公司和個(gè)人不愿意讓大模型拿到自己的數(shù)據(jù)。

那么我們?cè)趺礃永孟蛄繑?shù)據(jù)庫和 OpenAI 這種大模型廠商交換數(shù)據(jù)呢?首先說一點(diǎn),大模型本身是可以將互聯(lián)網(wǎng)上的公域數(shù)據(jù)都爬到,對(duì)于私域數(shù)據(jù)可以用向量數(shù)據(jù)庫先做好編排,轉(zhuǎn)成向量數(shù)據(jù)庫里的向量?,F(xiàn)在要從私域數(shù)據(jù)的知識(shí)庫里要找到問題的回答,可以利用向量數(shù)據(jù)庫的相似查找能力,精確定位到庫里的相關(guān)數(shù)據(jù),然后把這幾個(gè)信息編成一個(gè) prompt。

盡管 prompt 的容量理論上可以無限,但這樣效率太低,并且也難以實(shí)現(xiàn)。通過以上這樣的方式就可以很容易控制是 2000 個(gè) tokens,或者 8000 個(gè) tokens,把它傳給大模型給出一個(gè)答案。所以說,通過向量數(shù)據(jù)庫可以用私域數(shù)據(jù)和大模型做一個(gè)增強(qiáng)和互補(bǔ)。

極客公園:大模型不會(huì)把私有數(shù)據(jù)都拿走?

星爵:國(guó)外這一波 AI 起來之后還有一個(gè)特別好的點(diǎn),就是把隱私數(shù)據(jù)保護(hù)都搞清楚了。

為什么有那么多開發(fā)者敢用,那么多百億美金的公司愿把自己的服務(wù)接到 OpenAI 里面去,就是 OpenAI 已經(jīng)保證 ?prompt ?只能作為 input(輸入),不能存、不能訓(xùn)練、不能學(xué)習(xí)。要不然我把數(shù)據(jù)都給你了,你學(xué)完以后把我踢掉怎么辦。國(guó)外已經(jīng)在公有數(shù)據(jù)和私有數(shù)據(jù)之間劃出了一個(gè)很大邊界。我相信中國(guó)最后也會(huì)立法,走到這一步的。

極客公園:向量數(shù)據(jù)庫在大模型中還有什么應(yīng)用?

星爵:短期還有一種應(yīng)用方式,用向量數(shù)據(jù)庫給大模型更新數(shù)據(jù)。

其實(shí)這也是個(gè)成本的考慮,模型的finetune(微調(diào))更新的成本,是遠(yuǎn)大于使用向量數(shù)據(jù)庫數(shù)據(jù)做存儲(chǔ)。

不管是大模型還是小模型的 finetune 都比較慢。除非你做一個(gè)超級(jí)無敵計(jì)算機(jī),實(shí)時(shí)獲取新數(shù)據(jù),也實(shí)時(shí)更新模型,但沒必要。像 ChatGPT 訓(xùn)練所用的數(shù)據(jù)是截止到 2021 年 9 月,后面的事情它就不知道了,會(huì)給出錯(cuò)誤答案。所以通過用向量數(shù)據(jù)庫給大模型更新數(shù)據(jù),也是可以一定程度上解決大模型「胡言亂語」的問題。

極客公園:Zilliz 還推出了GPTCache,要給ChatGPT 做緩存層。這個(gè)怎么理解?

星爵:緩存也是個(gè)很好的應(yīng)用場(chǎng)景。我們認(rèn)為全球的CDN 和緩存會(huì)有重做一次的機(jī)會(huì)。未來 AI 的公共場(chǎng)景中信息交換的方式會(huì)發(fā)生變化,會(huì)向更智能,更偏向語義這個(gè)方向轉(zhuǎn)變,并且消化的是更加非結(jié)構(gòu)化的數(shù)據(jù)。以前的 CDN 是基于精確條件的查詢,現(xiàn)在可以基于一些近似條件的查詢。未來需要一個(gè)更智能的一個(gè) CDN,更智能的一個(gè)緩存。

極客公園:最近很火的AutoGPT 和向量數(shù)據(jù)庫也有關(guān)聯(lián),向量數(shù)據(jù)庫在其中扮演了什么角色?

星爵:向量數(shù)據(jù)庫是AutoGPT 中最為核心的組件之一。我們的產(chǎn)品 Milvus 已經(jīng)接入到了 AutoGPT 中,這給我們帶來了很大的流量。你可以這樣理解,AutoGPT 等于ChatGPT 加上向量數(shù)據(jù)庫。通過向量數(shù)據(jù)庫讓 AutoGPT 具備了長(zhǎng)期記憶能力,它知道之前搜的是什么,把歷史全部記進(jìn)去了,不然每次查詢是沒有上下文的。

極客公園:斯坦福大學(xué)和谷歌聯(lián)手發(fā)布的論文《Generative Agents: Interactive Simulacra of Human Behavior》也引起了行業(yè)強(qiáng)烈關(guān)注,實(shí)驗(yàn)構(gòu)建了一個(gè)虛擬小鎮(zhèn),小鎮(zhèn)有25 個(gè)有「記憶」的虛擬人,他們可以結(jié)合自己的「人設(shè)」,在社交活動(dòng)中產(chǎn)生不同的決策和行為,這讓我們看到了現(xiàn)實(shí)版的《西部世界》構(gòu)建的可能性。這個(gè)實(shí)驗(yàn)里面非常重要的是虛擬人的記憶機(jī)制,向量數(shù)據(jù)庫能做嗎?

圖|虛擬小鎮(zhèn)

星爵:能。AutoGPT 加一個(gè)人物的頭像,就可以打造一個(gè)最簡(jiǎn)單的智能 Avatar。以后各種智能體都要有個(gè)記憶,而記憶是向量數(shù)據(jù)庫來提供,這個(gè)想象空間蠻大的。那它可能是個(gè)什么機(jī)會(huì)呢?還真不好去定義,人類歷史上首次出現(xiàn)擁有獨(dú)立記憶體的虛擬人,這是一個(gè)歷史性的機(jī)會(huì),對(duì)向量數(shù)據(jù)庫的需求會(huì)有幾萬倍的增長(zhǎng)。

這本質(zhì)上還是使用向量數(shù)據(jù)庫作為大模型的 memory,應(yīng)用在了虛擬智能體這個(gè)場(chǎng)景。我覺得慢慢地大家在達(dá)成共識(shí),只要做大模型的應(yīng)用,就會(huì)用向量數(shù)據(jù)庫來做記憶體。

極客公園:大模型要想處理復(fù)雜任務(wù),首先要有記憶能力,然后基于記憶(上下文)做推理,而向量數(shù)據(jù)便是記憶體。那是只有向量數(shù)據(jù)庫就夠了,還是需要再加一些其他的?

星爵:基本就夠了。因?yàn)樗写竽P秃?AI 里面的數(shù)據(jù)交換都是用向量。這個(gè)本質(zhì)上是說片外跟片內(nèi)的存儲(chǔ)數(shù)據(jù)的交換格式是統(tǒng)一的。這也就是說為什么不能拿 Oracle 去做智能體的記憶;ChatGPT 也沒有選 MongoDB,也沒有選 Oracle,因?yàn)樗鼈兌际遣贿m合大模型的。

極客公園:是不是可以這樣理解,把大模型看成是一個(gè)基于自然語言編程的新型計(jì)算機(jī),向量數(shù)據(jù)是它最原生的數(shù)據(jù),向量數(shù)據(jù)庫是它最原生的數(shù)據(jù)庫,這其實(shí)是一個(gè)完整的體系?

星爵:是的。神經(jīng)網(wǎng)絡(luò)的確是向量,因?yàn)樗械男畔鬏敹际窍蛄?,每一層的參?shù)也都是向量。所以能看成是個(gè)以向量(embedding)為基礎(chǔ)架構(gòu)的一套新的計(jì)算體系結(jié)構(gòu)。

這個(gè)體系結(jié)構(gòu)簡(jiǎn)單說來就是「CVP Stack」。其中「C」是 ChatGPT 這類大模型,負(fù)責(zé)向量的計(jì)算;「V」是向量數(shù)據(jù)庫(vector database),負(fù)責(zé)向量的存儲(chǔ);「P」是 Prompt Engineering,負(fù)責(zé)向量的交互。

03?AI Native 時(shí)代的應(yīng)用演進(jìn)

極客公園:對(duì)于AI Native 時(shí)代的應(yīng)用開發(fā)來說,什么變得更重要了?什么不重要了?

星爵:在大模型開發(fā)時(shí)代,我率先提出了前面提到的「CVP Stack」概念,現(xiàn)在也逐漸被廣泛接受了。

這里要特別指出的是,我對(duì)于「P」的定義和理解會(huì)更加開放一些,不限于 prompt engineering。它本質(zhì)上是個(gè)創(chuàng)造的過程,而不是說簡(jiǎn)單的寫 prompt?!窹」的核心是提問能力,或者說是找到需求、找到市場(chǎng)的一個(gè)能力,比如說你如何設(shè)計(jì)你的用戶流程,如何找到一個(gè)好的商業(yè)化落地的場(chǎng)景,這都是包含在「P」中。

對(duì)于現(xiàn)在的開發(fā)者來說,不管你是產(chǎn)品經(jīng)理還是前端工程師,用 ChatGPT 加上向量數(shù)據(jù)庫,寫好 prompt,再用 LangChain 把項(xiàng)目串起來,基本用上一周就可以寫個(gè)應(yīng)用出來,這極大地降低了大模型應(yīng)用的開發(fā)成本。

極客公園:面向大模型時(shí)代,你對(duì)Zilliz 這家公司更準(zhǔn)確的定義是什么?

星爵:我們是一家 DB for AI 的公司,大概 3 年前,我們發(fā)了這個(gè)領(lǐng)域第一篇 SIGMOD 論文的時(shí)候,提出了這個(gè)概念,但它是一個(gè)學(xué)術(shù)界的講法。如果按照更好理解的方式,我們其實(shí)的是一個(gè) AI Native 的數(shù)據(jù)庫公司。

過去10 年最大的機(jī)會(huì)是做Cloud Native(云原生)的Data Infra,產(chǎn)生了Snowflake 這樣的巨頭;未來10 年最大的機(jī)會(huì)是做AI NativeAI 原生)的Data Infra,像 Zilliz 這樣的向量數(shù)據(jù)庫公司將會(huì)迎來歷史性機(jī)遇。

極客公園:這一波大模型創(chuàng)業(yè),應(yīng)用層創(chuàng)業(yè)者被問得最多的是,怎么去建立自己的競(jìng)爭(zhēng)壁壘,而不被大模型本身的進(jìn)步「淹死」?你怎么看壁壘這個(gè)問題?

星爵:應(yīng)用層其實(shí)是有壁壘,技術(shù)壁壘變低了,那么其他的壁壘就變高了,我覺得創(chuàng)意和運(yùn)營(yíng)變得更重要了。

極客公園:與中國(guó)關(guān)注應(yīng)用層和大模型層不同,美國(guó)在AI Infra 上迎來了開源的繁榮,AI Infra 的競(jìng)爭(zhēng)格局會(huì)是怎么樣?中國(guó)接下來在AI Infra 上有什么值得期待的嗎?

星爵:Infra 是一個(gè)贏者通吃的市場(chǎng),像 Snowflake 在云原生數(shù)據(jù)庫領(lǐng)域就是一馬當(dāng)先。

我覺得中國(guó)在這一塊還沒開始,中國(guó)大模型比國(guó)外大概落后了半年。Infra 的話,我覺得中國(guó)可能還會(huì)落后半年到 1 年。我覺得 AI Infra 在接下來的半年里會(huì)有一個(gè)史無前例的快速發(fā)展。

04?爆火背后的堅(jiān)持和運(yùn)氣

極客公園:3 月的NVIDIA GTC 大會(huì)上,黃仁勛強(qiáng)調(diào)向量數(shù)據(jù)庫對(duì)于大模型至關(guān)重要,還宣布了你們是NVIDIA 的向量數(shù)據(jù)庫的合作伙伴。這中間發(fā)生了什么故事?

圖|NVIDIA GTC 大會(huì),黃仁勛首次提及向量數(shù)據(jù)庫,并強(qiáng)調(diào)對(duì)于構(gòu)建專有大型語言模型的組織而言,向量數(shù)據(jù)庫至關(guān)重要

星爵:我們?cè)趧?chuàng)業(yè)之初就堅(jiān)定地認(rèn)為 AI 時(shí)代的計(jì)算一定是異構(gòu)的,也一直在堅(jiān)持包括 GPU 加速在內(nèi)的異構(gòu)計(jì)算的技術(shù)路線。

NVIDIA 是在去年下半年看到整個(gè) AI 的發(fā)展趨勢(shì)中,向量數(shù)據(jù)的處理會(huì)越來越重要,非常希望更多的企業(yè)能夠把 GPU 加速用起來。他們?cè)谌蚍秶鷥?nèi)調(diào)研和接觸向量數(shù)據(jù)庫領(lǐng)域的公司和團(tuán)隊(duì),但也發(fā)現(xiàn)真正能夠在異構(gòu)計(jì)算上面有布局、有實(shí)力的只有我們一家。

NVIDIA 在深入地了解我們之后,也成為了我們 Milvus 開源社區(qū)里一個(gè)很重要的貢獻(xiàn)者。除了共同發(fā)布 GPU 加速向量數(shù)據(jù)庫,NVIDIA 還派了幾名的工程師專門給 Milvus 貢獻(xiàn)代碼。

此外,NVIDIA 還有一個(gè)用 GPU 加速的開源推薦系統(tǒng)框架 Merlin,它把 Milvus 也做成 Merlin 中的一個(gè)關(guān)鍵部件,幫推薦系統(tǒng)去管理下面的數(shù)據(jù)?,F(xiàn)在 NVIDIA 不僅僅是我們的合作伙伴,同時(shí)也成為我們的一個(gè)大用戶。

極客公園:OpenAI 又是什么樣的故事?我看到在公布ChatGPT plugins 發(fā)布的官方文章中,Milvus Zilliz 是首批的合作伙伴,貢獻(xiàn)了向量數(shù)據(jù)庫插件。

圖|OpenAI 發(fā)布 ChatGPT plugins 的官方文章中,Zilliz 的產(chǎn)品被提及了兩次

星爵:OpenAI 的話就更加簡(jiǎn)單了,一年前就已經(jīng)有一些合作了。他們和我們說要做一個(gè)平臺(tái),就是 ChatGPT plugins,看到我們的向量數(shù)據(jù)庫是全球最流行和最具開發(fā)者社區(qū)影響力的,因此希望加入。最開始我們的心態(tài)很平和,覺得是基礎(chǔ)的開源兼容合作。但 plugins 發(fā)布后,我們獲得了來自大模型領(lǐng)域開發(fā)者和 GPT 用戶群體的空前關(guān)注,這個(gè)是我始料未及的。

極客公園:既然向量數(shù)據(jù)庫這么重要,會(huì)不會(huì)擔(dān)心國(guó)內(nèi)別人再做一個(gè)向量數(shù)據(jù)庫?

星爵:說實(shí)話我們很歡迎,因?yàn)橄蛄繑?shù)據(jù)庫還處于發(fā)展的早期階段,還需要更多的市場(chǎng)教育。

極客公園:對(duì)于「為什么是你們」這個(gè)問題,你是怎么思考的?

星爵:我也想不到今年會(huì)有機(jī)會(huì)和大家都去談向量數(shù)據(jù)庫。之前我每年都跟別人講,向量數(shù)據(jù)庫是接下來特別牛逼的事情,但大部分人聽完之后說,有趣,你有這個(gè)想法和愿景,就好好干。

現(xiàn)在回頭看,沒有堅(jiān)定的愿景和長(zhǎng)期主義的堅(jiān)持,我們不可能走到現(xiàn)在。

當(dāng)然,一個(gè)成功的企業(yè)也需要有些好的運(yùn)氣。比如說,我們歷史上每次融資都能夠遇到一些擁有相同愿景、堅(jiān)持長(zhǎng)期主義的投資人。我們今年開始準(zhǔn)備做商業(yè)化,剛好遇到大模型的「iPhone 時(shí)刻」,一下子把我們推到了聚光燈下。之前有人會(huì)懷疑我們的商業(yè)化潛力,但現(xiàn)在有人和我說 Zilliz 想不掙錢都很難。

很多時(shí)候,你堅(jiān)持在做一些難的事情,但是很多時(shí)間點(diǎn)你沒有趕上,你可能會(huì)死。因?yàn)槠鋵?shí)很多優(yōu)秀的企業(yè)也是這么死掉的,盡管它的產(chǎn)品和技術(shù)很好,但它跟市場(chǎng)經(jīng)濟(jì)發(fā)展的趨勢(shì)不吻合,跟用戶需求爆發(fā)的時(shí)間點(diǎn)不吻合。

對(duì)于可以掌控的,那我們就拼命去做成功的必要條件;而有些是無法控制的,對(duì)我們來說的話,很感恩這種運(yùn)氣。

極客公園:所以你是怎么看自己的?是長(zhǎng)期主義的勝利者?

星爵:幸存者更恰當(dāng)一些。

極客公園:大模型給向量數(shù)據(jù)庫帶來的是什么程度的加速?

星爵:是指數(shù)級(jí)的增長(zhǎng),過去 6 個(gè)月開發(fā)者的增長(zhǎng)量大概能頂?shù)蒙衔覀冞^去三年的。

這是一個(gè)向量數(shù)據(jù)庫開始瘋狂增長(zhǎng)的時(shí)代,也是 AI-native 數(shù)據(jù)庫未來十年高速增長(zhǎng)的開端。

本文作者:王式,來源:極客公園,原文標(biāo)題:《對(duì)話 Zilliz 星爵:大模型時(shí)代,需要新的「存儲(chǔ)基建」》

風(fēng)險(xiǎn)提示及免責(zé)條款 市場(chǎng)有風(fēng)險(xiǎn),投資需謹(jǐn)慎。本文不構(gòu)成個(gè)人投資建議,也未考慮到個(gè)別用戶特殊的投資目標(biāo)、財(cái)務(wù)狀況或需要。用戶應(yīng)考慮本文中的任何意見、觀點(diǎn)或結(jié)論是否符合其特定狀況。據(jù)此投資,責(zé)任自負(fù)。

關(guān)鍵詞: