dsujbhui 发表于 2025-2-7 01:57:33

使用 SemanticKernel 对接 Ollma

前面的 2 篇文章已经介绍了 ollama 的基本情况。我们也已经能在本地跟 LLM 进行聊天了。但是如何使用代码跟 LLM 进行交互呢?如果是 C# 选手那自然是使用 SK (SemanticKernel) 了。在这篇博客中,我们将探讨如何使用 Microsoft 的 SemanticKernel 框架对接 Ollama 的聊天服务。我们将通过一个简单的 C# 控制台应用程序来展示如何实现这一点。
前提条件

在本地安装 ollama 服务,并且安装至少一个模型,这次我们的模型是 llama3.1:8b。具体如何安装就不赘述了,请参考以往文章:
安装 SK 及 ollama connector

首先在本地创建一个 Console 项目,然后安装以下包:
dotnet add package Microsoft.SemanticKernel --version 1.21.1dotnet add package Microsoft.SemanticKernel.Connectors.Ollama --version 1.21.1-alpha注意:ollama connector 还是 alpha 版本,请勿用于生产
修改 Program 文件

添加命名空间

首先,我们需要引入一些必要的命名空间:
using Microsoft.Extensions.DependencyInjection;using Microsoft.SemanticKernel;using Microsoft.SemanticKernel.ChatCompletion;using Microsoft.SemanticKernel.Connectors.Ollama;配置 Ollama 服务

接下来,我们需要配置 Ollama 服务的端点和模型 ID ,并添加 Ollama 的聊天服务:
var endpoint = new Uri("http://localhost:11434");var modelId = "llama3.1:8b";var builder = Kernel.CreateBuilder();#pragma warning disable SKEXP0070 builder.Services.AddScoped<IChatCompletionService>(_ => new OllamaChatCompletionService(modelId, endpoint));注意:OllamaChatCompletionService 为实验性质所以我们需求手工关闭 SKEXP0070 的警告
获取聊天服务

var chatService = kernel.GetRequiredService<IChatCompletionService>();var history = new ChatHistory();history.AddSystemMessage("This is a llama3 assistant ...");聊天循环

最后,我们实现一个简单的聊天循环,读取用户输入并获取 Ollama 的回复:
while (true){    Console.Write("You:");    var input = Console.ReadLine();    if (string.IsNullOrWhiteSpace(input))    {      break;    }    history.AddUserMessage(input);    var contents = await chatService.GetChatMessageContentsAsync(history);    foreach (var chatMessageContent in contents)    {      var content = chatMessageContent.Content;      Console.WriteLine($"Ollama: {content}");      history.AddMessage(chatMessageContent.Role, content ?? "");    }}试一下

让我们运行项目在 Console 中跟 ollama 进行对话吧。

总结

通过这篇博客,我们展示了如何使用 Microsoft 的 SemanticKernel 框架对接 Ollama 的聊天服务。希望这篇博客能帮助您更好地理解和使用这些工具。如果您有任何问题或建议,请随时在评论区留言。
关注我的公众号一起玩转技术

页: [1]
查看完整版本: 使用 SemanticKernel 对接 Ollma