本文主要探讨如何利用langchain4j来整合ollama和deepseek的使用方法。
步骤如下:
首先,在pom.xml文件中添加必要的依赖项:
<dependency> <groupId>dev.langchain4j</groupId> <artifactId>langchain4j-spring-boot-starter</artifactId> <version>${langchain4j-spring.version}</version> </dependency> <dependency> <groupId>dev.langchain4j</groupId> <artifactId>langchain4j-ollama-spring-boot-starter</artifactId> <version>${langchain4j-spring.version}</version> </dependency> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter</artifactId> </dependency> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-web</artifactId> </dependency>登录后复制
接着,在application.yaml文件中配置ollama的聊天模型:
langchain4j: ollama: chat-model: base-url: http://localhost:11434 model-name: deepseek-r1:8b登录后复制
然后,创建一个控制器来处理聊天请求:
@RequestMapping("/ollama") @RestController public class ChatController { @Autowired ChatLanguageModel chatLanguageModel; <pre class="brush:php;toolbar:false">/** * curl -i localhost:8080/ollama/chat?prompt=今天日期是多少 * @param prompt * @return */ @GetMapping("/chat") public String chat(@RequestParam("prompt") String prompt) { return chatLanguageModel.generate(prompt); }登录后复制
}
最后,验证配置是否正确,可以通过访问http://localhost:8080/ollama/chat?prompt=%E4%BD%A0%E6%98%AF%E8%B0%81来测试,结果应为您好!我是由中国的深度求索(DeepSeek)公司开发的智能助手DeepSeek-R1。如您有任何任何问题,我会尽我所能为您提供帮助。
总结来说,langchain4j提供了一个名为langchain4j-ollama-spring-boot-starter的工具,可以方便地通过ollama访问deepseek。
以上就是langchain4j+ollama+deepseek小试牛刀的详细内容,更多请关注楠楠科技社其它相关文章!
标签: #牛刀 #langchain4j #ollama