小编教你langchain4j+ollama+deepseek小试牛刀。

访客 201 0

本文主要探讨如何利用langchain4j来整合ollama和deepseek的使用方法。

步骤如下:

首先,在pom.xml文件中添加必要的依赖项:

<dependency>
    <groupId>dev.langchain4j</groupId>
    <artifactId>langchain4j-spring-boot-starter</artifactId>
    <version>${langchain4j-spring.version}</version>
</dependency>
<dependency>
    <groupId>dev.langchain4j</groupId>
    <artifactId>langchain4j-ollama-spring-boot-starter</artifactId>
    <version>${langchain4j-spring.version}</version>
</dependency>
<dependency>
    <groupId>org.springframework.boot</groupId>
    <artifactId>spring-boot-starter</artifactId>
</dependency>
<dependency>
    <groupId>org.springframework.boot</groupId>
    <artifactId>spring-boot-starter-web</artifactId>
</dependency>
登录后复制

接着,在application.yaml文件中配置ollama的聊天模型:

langchain4j:
  ollama:
    chat-model:
      base-url: http://localhost:11434
      model-name: deepseek-r1:8b
登录后复制

然后,创建一个控制器来处理聊天请求:

@RequestMapping("/ollama")
@RestController
public class ChatController {
    @Autowired
    ChatLanguageModel chatLanguageModel;
<pre class="brush:php;toolbar:false">/**
 * curl -i localhost:8080/ollama/chat?prompt=今天日期是多少
 * @param prompt
 * @return
 */
@GetMapping("/chat")
public String chat(@RequestParam("prompt") String prompt) {
    return chatLanguageModel.generate(prompt);
}
登录后复制

}

最后,验证配置是否正确,可以通过访问http://localhost:8080/ollama/chat?prompt=%E4%BD%A0%E6%98%AF%E8%B0%81来测试,结果应为您好!我是由中国的深度求索(DeepSeek)公司开发的智能助手DeepSeek-R1。如您有任何任何问题,我会尽我所能为您提供帮助。

总结来说,langchain4j提供了一个名为langchain4j-ollama-spring-boot-starter的工具,可以方便地通过ollama访问deepseek。

langchain4j+ollama+deepseek小试牛刀

以上就是langchain4j+ollama+deepseek小试牛刀的详细内容,更多请关注楠楠科技社其它相关文章!

标签: #牛刀 #langchain4j #ollama