和斜杠君一起学习 🔗 扣子实战教程

教你轻松本地电脑部署最新Llama3.1,搭建免费本地大模型助手

🧙‍♂️ 大家好,我是斜杠君,手把手教你搭建扣子AI应用

📜 本教程是《AI应用开发系列教程之扣子(Coze)实战教程》,完全免费学习。

image

Facebook最新的Llama3.1大模型发布了。今天手把手教大家如何在本地电脑上部署Llama3.1大模型,个人电脑也可以轻松运行,打造一个属于自己的本地大模型助手。

在开始之前,我们要先搞懂两个概念 OllamaLlama 3.1。看似写法差不多,但意思相差很大。

Llama 3.1 是什么?

Llama 3.1 是 Meta(Facebook 的母公司)发布的一系列最先进的开源大语言模型。Llama 3.1 系列包括 8B(80 亿参数)、70B(700 亿参数)和 405B(4050 亿参数)模型。其中,405B 是 Meta 迄今为止最大的模型,也是首个“前沿级”的开源模型。

Ollama 是什么?

Ollama 是一个开源的大模型管理工具,它提供了丰富的功能,包括模型的训练、部署、监控等。通过Ollama,你可以轻松地管理本地的大模型,提高模型的训练速度和部署效率。此外,Ollama还支持多种机器学习框架,如TensorFlow、PyTorch等,使得你可以根据自己的需求选择合适的框架进行模型的训练。

下面开始进行本地部署。

1、下载安装程序

官网下载地址: https://ollama.com/download

备注:如果不能下载的,关注后回复"ollama",获取安装包。

因为我的电脑是windows, 所以这里我下载Windows这个版本。

下载好了,程序大小一共是299M。

2、开始安装

下载好后,双击点开始安装:

默认安装到C盘。

安装完成后,Win+R键调出运行窗口:

3、安装 Llama 3.1 大模型

在官网点击这里导航 「Models」,可以看到所有可用大模型:

在窗口中键入cmd调出控制台,在控制台中运行命令:ollama run llama3.1

下载速度很快,最主要国内网就可以下载,32M/S。

稍等一会儿,就安装完成了。

4、测试

先测试一下,提个问题,看看回答怎么样?

再来测试一下中文。

回答速度挺快,答案不知道对不对,但可以自圆其说,哈哈,这个大家自己测试体验一下吧。

好了,使用Ollama在本地部署Llama3.1的教程就为大家教到这里,大家快动手试试,愿大家在本文中能有所收获。

如果不能下载安装程序的同学,关注后回复“ollama”后,会自动把分享安装程序给你,快部署试一下吧 ~

请关注我,我是斜杠君,持续和大家分享AI应用干货知识。我的《AI应用开发系列教程之扣子(Coze)实战教程》上线了,关注我获取完整版教程,完全免费学习。

image

原文地址:教你轻松本地电脑部署最新Llama3.1,搭建免费本地大模型助手

精选推荐:

扣子工作流实战案例教程,手把手教你搭建一个图书管理工作流

最新扣子(Coze)实战案例:扣子卡片的制作及使用,完全免费教程

最新扣子(Coze)实战教程:如何创建扣子插件,完全免费,快来学习吧~

最新扣子(Coze)实战案例:图像流工具节点示例详解

最新扣子(Coze)实战案例:图像流工具之人像风格化,完全免费教程

posted @ 2024-07-25 16:50  斜杠君  阅读(269)  评论(0编辑  收藏  举报
和斜杠君一起学习 🔗 扣子实战教程