Meta 的大语言模型 LLaMA 13B,现在用 2060 就能跑了~
羊驼家族的 Alpaca 和 Vicuna 也都能运行,显存最低只需要 6G,简直是低 VRAM 用户的福音有木有。
(资料图片仅供参考)
GitHub 上的搭建教程火了之后,网友们纷纷跑来问苹果 M2 是不是也能跑。
这通操作的大致原理是利用最新版 CUDA,可以将 Transformer 中任意数量的层放在 GPU 上运行。
与此前 llama.cpp 项目完全运行在 CPU 相比,用 GPU 替代一半的 CPU 可以将效率提高将近 2 倍。
而如果纯用 GPU,这一数字将变成 6 倍。
网友实测的结果中,使用 CPU 每秒能跑 2.1 个 token,而用 GPU 能跑 3.2 个。
生成的内容上,开发者成功用它跑出了“尼采文学”。
如何操作
在开始搭建之前,我们需要先申请获得 LLaMA 的访问权限。
传送门:https://ai.facebook.com/ blog / large-language-model-llama-meta-ai/
此外还需要有一个 Linux 环境。(Windows 用户可以用 WSL2)
准备工作完成之后,第一步是将 llama.cpp 克隆到本地。
1gitclonehttps://github.com/ggerganov/llama.cpp.git2cdllama.cpp3pacman-Scuda//makesureyouhaveCUDAinstalled4makeLLAMA_CUBLAS=1
如果没有安装 CUDA,可以参考下面的步骤:
1wgethttps://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-wsl-ubuntu.pin2sudomvcuda-wsl-ubuntu.pin/etc/apt/preferences.d/cuda-repository-pin-6003wgethttps://developer.download.nvidia.com/compute/cuda/12.1.1/local_installers/cuda-repo-wsl-ubuntu-12-1-local_12.1.1-1_64.deb4sudodpkg-icuda-repo-wsl-ubuntu-12-1-local_12.1.1-1_64.deb5sudocp/var/cuda-repo-wsl-ubuntu-12-1-local/cuda-*-keyring.gpg/usr/share/keyrings/6sudoapt-getupdate7sudoapt-get-yinstallcuda
然后是建立 micromamba 环境,安装 Python 和 PyTorch 等工具。
接着需要在 micromamba 环境下安装一些包:
1exportMAMBA_ROOT_PREFIX=(自定义安装路径)2eval"$(micromambashellhook--shell=bash)"3micromambacreate-nmymamba4micromambaactivatemymamba5micromambainstall-cconda-forge-nmymambapytorchtransformerssentencepiece
然后运行 Python 脚本以执行转换过程:
1pythonconvert.py~/ai/Safe-LLaMA-HF-v2\\(4-04-23\)/llama-13b/
之后将其量化为 4bit 模式。
1./quantize~/ai/Safe-LLaMA-HF-v2\\(4-04-23\)/llama-13b/ggml-model-f16.bin~/ai/Safe-LLaMA-HF-v2\\(4-04-23\)/llama-13b/ggml-model-13b-q4_0-2023_14_5.binq4_08
接着是新建一个 txt 文本文档,把提示词输入进去,然后就可以运行了。
1./main-ngl18-m~/ai/Safe-LLaMA-HF-v2\\(4-04-23\)/llama-13b/ggml-model-13b-q4_0-2023_14_5.bin-f文档名称txt-n2048q4_08
这步当中-ngl 后面的数字是可以修改的,它代表了转换层的数量。
当该值为 18 时,运行中消耗的 VRAM 为 5.5GB,根据显存的大小最高可以调至 40。
网友:AMD 不配吗
这一教程出现之后,网友们的新玩具又增加了。
“苦 OpenAI 久矣”的网友更是感觉仿佛找到了光。
这位网友就表示自己太期待在自己的设备上运行 LLM 了,宁愿花 5 千美元购置设备也不想给 OpenAI 交一分钱。
但 AMD 用户可能就不那么兴奋了,甚至透露出了嫉妒之情。
这套方法要用到 CUDA(英伟达专用),所以 AMD 是不配了吗?
那么,你期待用自己的设备跑大语言模型吗?
参考链接:
[1].https://gist.github.com/rain-1/8cc12b4b334052a21af8029aa9c4fafc
[2].https://twitter.com/_akhaliq/status/1657779996247588865
[3].https://news.ycombinator.com/item?id=35937505
本文来自微信公众号:量子位 (ID:QbitAI),作者:克雷西
上一篇:新动态:世界首条!今日起北京地铁大兴机场线可“刷掌”乘车
下一篇:最后一页
X 关闭
-
世界视点!达华智能(002512)报收于3.99元,上涨2.05%
截至2023年5月18日收盘,达华智能(002512)报收于3 99元,上涨2 05%,换手率3 34%,成交量35 03万手,成交额
-
发送到桌面快捷方式没有箭头_发送到桌面快捷方式没有|视点
1、点击开始菜单,在运行对话框下输入notepad exe。2、点击记事本的文件菜单,直接另存为桌面快捷方式 deskl
-
沈阳市有什么好玩的 沈阳市有什么好玩的地方 环球新消息
今天来聊聊关于沈阳市有什么好玩的,沈阳市有什么好玩的地方的文章,现在就为大家来简单介绍下沈阳市有什么
-
中考考前心理辅导_高三学生考前心理辅导_即时焦点
1、一、从心理角度要做到:合理归因、合理期待、合理情绪二、从身心角度要做好:劳逸结合、张驰有度、身心放
-
第三十一章:清算如戏(中)_速看料
秦荣道听完他儿子如此长篇大论之后,点了点头却什么也没说,只是不停地品着茶,也不知道在想什么。与此同时
-
今日热文:银行卡被止付会自动解冻吗(银行卡止付是不是被冻结了)
银行卡被止付会自动解冻的,不过时间长短不一,最快72小时,单次最慢六个月。人民法院冻结被执行人的银行存
-
虚假宣传被罚20万,珀莱雅大单品战略能走多久
继火爆单品羽感防晒爆雷后,珀莱雅(603605)另一大单品双抗精华也翻车了?5月20日,北京商报记者获悉,珀莱
-
抖音怎么设置动态壁纸oppo_抖音怎么设置动态壁纸
大家好,小评来为大家解答以上问题。抖音怎么设置动态壁纸oppo,抖音怎么设置动态壁纸很多人还不知道,现在
-
股票002123
本文内容是由小编为大家搜集关于股票002123,以及的资料,整理后发布的内容,让我们赶快一起来看一下吧!股
-
邻居|全球要闻
今天是520诶,来点刺激的吧?(坏笑)本期的问题是:邻居的妻子是否还活着?如果死了,她的遗体在哪里?克