用NVIDIA顯卡訓(xùn)練就行 周鴻祎談AI戰(zhàn)略:不搞全產(chǎn)業(yè)鏈
- 來源:快科技
- 作者:憲瑞
- 編輯:liyunfei
隨著ChatGPT的火爆,現(xiàn)在國內(nèi)多家互聯(lián)網(wǎng)科技公司都在布局AI技術(shù),其中360也是很積極的,創(chuàng)始人周鴻祎日前在電話會議上又談到了AI戰(zhàn)略,表示不會做全產(chǎn)業(yè)鏈,訓(xùn)練用NVIDIA的顯卡就行。
針對是否跟百度一樣做芯片模型全覆蓋的平臺的問題,周鴻祎表示他們肯定不是這個方向,谷歌自己搞過GPU,也就自己用。
訓(xùn)練最好還是用(NVIDIA的)A100和A800,框架沒必要自己搞,自己搞個框架還要花精力和別的芯片適配。
微軟這么強(qiáng)大微軟只做應(yīng)用,OpenAI 用的框架也是用的行業(yè)通用框架。
周鴻祎表示,他不認(rèn)為產(chǎn)業(yè)鏈全都做了是好事,360堅定的沿著transformer框架把模型干到千億,首先是要占據(jù)應(yīng)用場景。
據(jù)周鴻祎所說,對于GPT3.5,他認(rèn)為國內(nèi)和它的差距18個月,與GPT4的差距則是24個月。
此前3月15日,周鴻祎在直播間表示,360將“兩翼齊飛”, 一方面繼續(xù)全力自研生成式大語言模型技術(shù),造自己的‘發(fā)動機(jī)’;另一方面將占據(jù)場景做產(chǎn)品,盡快推出相關(guān)產(chǎn)品服務(wù)。
周鴻祎認(rèn)為,目前中國發(fā)展GPT技術(shù),首先要占據(jù)應(yīng)用場景,同步全力發(fā)展核心算法技術(shù)。
他用中國的殲10戰(zhàn)斗機(jī)做比喻。在國產(chǎn)的太行發(fā)動機(jī)成熟以前,先用俄羅斯的 AL-31,因為機(jī)身、航電、雷達(dá)的研發(fā)也都是非常高端復(fù)雜的工作,不能等發(fā)動機(jī)好了再上馬。
GPT也是如此,應(yīng)用場景需要復(fù)雜的工程化和商業(yè)化的能力,以及豐富的數(shù)據(jù)清洗和人工標(biāo)注的經(jīng)驗,等算法趕上GPT4再上馬,市場就錯過了。
玩家點(diǎn)評 (0人參與,0條評論)
熱門評論
全部評論