中国国产不卡视频在线观看_黑人狂虐中国人妻陈艳_激情综合一区二区三区_玖玖资源站影音先锋_国产婷婷色综合AV性色AV

首頁 > 資訊

世界短訊!6G顯存玩轉130億參數大模型 RTX 2060用戶發(fā)來賀電 AMD不配嗎?

來源:快科技 發(fā)表時間:2023-05-19 17:48:55
分享到

Meta的大語言模型LLaMA 13B,現在用2060就能跑了~

羊駝家族的Alpaca和Vicuna也都能運行,顯存最低只需要6G,簡直是低VRAM用戶的福音有木有。


(資料圖片)

GitHub上的搭建教程火了之后,網友們紛紛跑來問蘋果M2是不是也能跑。

這通操作的大致原理是利用最新版CUDA,可以將Transformer中任意數量的層放在GPU上運行。

與此前l(fā)lama.cpp項目完全運行在CPU相比,用GPU替代一半的CPU可以將效率提高將近2倍。

而如果純用GPU,這一數字將變成6倍。

網友實測的結果中,使用CPU每秒能跑2.1個token,而用GPU能跑3.2個。

生成的內容上,開發(fā)者成功用它跑出了“尼采文學”。

如何操作在開始搭建之前,我們需要先申請獲得LLaMA的訪問權限。

傳送門:https://ai.facebook.com/blog/large-language-model-llama-meta-ai/

此外還需要有一個Linux環(huán)境。(Windows用戶可以用WSL2)

準備工作完成之后,第一步是將llama.cpp克隆到本地。

如果沒有安裝CUDA,可以參考下面的步驟:

然后是建立micromamba環(huán)境,安裝Python和PyTorch等工具。

接著需要在micromamba環(huán)境下安裝一些包:

然后運行Python腳本以執(zhí)行轉換過程:

之后將其量化為4bit模式。

接著是新建一個txt文本文檔,把提示詞輸入進去,然后就可以運行了。

這步當中-ngl后面的數字是可以修改的,它代表了轉換層的數量。

當該值為18時,運行中消耗的VRAM為5.5GB,根據顯存的大小最高可以調至40。

網友:AMD不配嗎

這一教程出現之后,網友們的新玩具又增加了。

“苦OpenAI久矣”的網友更是感覺仿佛找到了光。

這位網友就表示自己太期待在自己的設備上運行LLM了,寧愿花5千美元購置設備也不想給OpenAI交一分錢。

但AMD用戶可能就不那么興奮了,甚至透露出了嫉妒之情。

這套方法要用到CUDA(英偉達專用),所以AMD是不配了嗎?

那么,你期待用自己的設備跑大語言模型嗎?

關鍵詞:

保安全、拿資格、摳細節(jié) 冬運中心全面進入北京冬奧會臨戰(zhàn)狀態(tài)

2021-12-16

人民財評:穩(wěn)步朝著實現共同富裕的目標邁進

2021-12-16

靠雙手讓日子變得更美好

2021-12-16

第一觀察·瞬間 | 中俄元首視頻會晤:相約北京見,攜手向未來

2021-12-16

世衛(wèi)組織:全球累計新冠確診病例達270791973例

2021-12-16

他們?yōu)楹伪枷蛳刃惺痉秴^(qū)——2021深圳全球招商大會透視

2021-12-16

Copyright   2015-2023 今日木材網 版權所有  備案號:滬ICP備2023005074號-40   聯系郵箱:5 85 59 73 @qq.com