SemanticKernel之LLama3案例
之前的篇章都是用SemanticKernel来连接OpenAI的API,当然是需要费用,另外还有使用限制,本篇来说明在SK中使用开源模型LLama3。
首先引入Nuget包,这里使用的是LLamaSharp这个三方包,因为没有显卡,只能跑在CPU上,所以也需要引入对应的Cpu包,最后引入SK的LLama版的包。
<ItemGroup> <PackageReference Include="LLamaSharp" Version="0.11.2" /> <PackageReference Include="LLamaSharp.Backend.Cpu" Version="0.11.2" /> <PackageReference Include="LLamaSharp.semantic-kernel" Version="0.11.2" /> </ItemGroup>
接下就是下载最新的LLama3了,扩展名是gguf,如下代码就可以轻松地跑起本地小模型了。
using LLama.Common;
using LLama;
using LLamaSharp.SemanticKernel.ChatCompletion;
using System.Text;
using ChatHistory = LLama.Common.ChatHistory;
using AuthorRole = LLama.Common.AuthorRole;
await SKRunAsync();
async Task SKRunAsync()
{
var modelPath = @"C:\llama\llama-2-coder-7b.Q8_0.gguf";
var parameters = new ModelParams(modelPath)
{
ContextSize = 1024,
Seed = 1337,
GpuLayerCount = 5,
Encoding = Encoding.UTF8,
};
using var model = LLamaWeights.LoadFromFile(parameters);
var ex = new StatelessExecutor(model, parameters);
var chatGPT = new LLamaSharpChatCompletion(ex);
var chatHistory = chatGPT.CreateNewChat(@"这是assistant和user之间的对话。
assistant是一名.net和C#专家,能准确回答user提出的专业问题。");
Console.WriteLine("开始聊天:");
Console.WriteLine("------------------------");
while (true)
{
Console.Write("user:");
var userMessage = Console.ReadLine();
chatHistory.AddUserMessage(userMessage);
var first = true;
var content = "";
await foreach (var reply in chatGPT.GetStreamingChatMessageContentsAsync(chatHistory))
{
if (first)
{
first = false;
Console.Write(reply.Role + ":");
}
content += reply.Content;
Console.Write(reply.Content);
}
chatHistory.AddAssistantMessage(content);
}
}
下面是具体的效果,除了慢点,没有GPT强大点,其他都是很香的,关键是没有key,轻松跑,不怕信用卡超支。
文章来源微信公众号
想要更快更方便的了解相关知识,可以关注微信公众号
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 无需6万激活码!GitHub神秘组织3小时极速复刻Manus,手把手教你使用OpenManus搭建本
· C#/.NET/.NET Core优秀项目和框架2025年2月简报
· Manus爆火,是硬核还是营销?
· 一文读懂知识蒸馏
· 终于写完轮子一部分:tcp代理 了,记录一下
2019-02-28 数据库所对应的函数
2019-02-28 使用通配符进行过滤