教你轻松本地电脑部署最新Llama3.1,搭建免费本地大模型助手
🧙♂️ 大家好,我是斜杠君,手把手教你搭建扣子AI应用。
📜 本教程是《AI应用开发系列教程之扣子(Coze)实战教程》,完全免费学习。
Facebook最新的Llama3.1大模型发布了。今天手把手教大家如何在本地电脑上部署Llama3.1大模型,个人电脑也可以轻松运行,打造一个属于自己的本地大模型助手。
在开始之前,我们要先搞懂两个概念 Ollama 和 Llama 3.1。看似写法差不多,但意思相差很大。
Llama 3.1 是什么?
Llama 3.1 是 Meta(Facebook 的母公司)发布的一系列最先进的开源大语言模型。Llama 3.1 系列包括 8B(80 亿参数)、70B(700 亿参数)和 405B(4050 亿参数)模型。其中,405B 是 Meta 迄今为止最大的模型,也是首个“前沿级”的开源模型。
Ollama 是什么?
Ollama 是一个开源的大模型管理工具,它提供了丰富的功能,包括模型的训练、部署、监控等。通过Ollama,你可以轻松地管理本地的大模型,提高模型的训练速度和部署效率。此外,Ollama还支持多种机器学习框架,如TensorFlow、PyTorch等,使得你可以根据自己的需求选择合适的框架进行模型的训练。
下面开始进行本地部署。
1、下载安装程序
官网下载地址: https://ollama.com/download
备注:如果不能下载的,关注后回复"ollama",获取安装包。
因为我的电脑是windows, 所以这里我下载Windows这个版本。
下载好了,程序大小一共是299M。
2、开始安装
下载好后,双击点开始安装:
默认安装到C盘。
安装完成后,Win+R键调出运行窗口:
3、安装 Llama 3.1 大模型
在官网点击这里导航 「Models」,可以看到所有可用大模型:
在窗口中键入cmd调出控制台,在控制台中运行命令:ollama run llama3.1
下载速度很快,最主要国内网就可以下载,32M/S。
稍等一会儿,就安装完成了。
4、测试
先测试一下,提个问题,看看回答怎么样?
再来测试一下中文。
回答速度挺快,答案不知道对不对,但可以自圆其说,哈哈,这个大家自己测试体验一下吧。
好了,使用Ollama在本地部署Llama3.1的教程就为大家教到这里,大家快动手试试,愿大家在本文中能有所收获。
如果不能下载安装程序的同学,关注后回复“ollama”后,会自动把分享安装程序给你,快部署试一下吧 ~
请关注我,我是斜杠君,持续和大家分享AI应用干货知识。我的《AI应用开发系列教程之扣子(Coze)实战教程》上线了,关注我获取完整版教程,完全免费学习。
精选推荐:
最新扣子(Coze)实战案例:扣子卡片的制作及使用,完全免费教程
最新扣子(Coze)实战教程:如何创建扣子插件,完全免费,快来学习吧~
最新扣子(Coze)实战案例:图像流工具之人像风格化,完全免费教程
大家好,我是斜杠君。免费学习我的教程《AI应用开发系列教程之扣子实战教程》,也可以进群一起讨论扣子问题。