在容器编排领域,k3s (k8s) 无疑是备受关注的存在。本文重点介绍如何在 k3s (k8s) 环境中安装 ollama,并运行 deepseek。首先,我们需要关注一个关键的 yaml 文件 —— ollama.yaml。这个文件如同整个部署流程的指挥棒,规定了各项参数和配置信息。ollama.yaml 的内容如下:
# https://cloud.tencent.com/developer/article/2495842 环境变量
apiVersion: apps/v1
kind: Deployment
metadata:
labels:
app: ollama
name: ollama
namespace: moonfdd
spec:
strategy:
type: Recreate
replicas: 1
selector:
matchLabels:
app: ollama
template:
metadata:
labels:
app: ollama
spec:
containers:
- env:
- name: OLLAMA_HOST
value: "0.0.0.0"
- name: OLLAMA_PORT
value: "11434"
- name: OLLAMA_NUM_PARALLEL
value: "20" # 默认是1
- name: OLLAMA_ORIGINS
value: "*"
- name: OLLAMA_MODELS
value: "/root/.ollama/models"
image: 'ollama/ollama:0.5.12'
command: ["ollama", "serve"]
imagePullPolicy: IfNotPresent
name: ollama
volumeMounts:
- mountPath: /root/.ollama/models/
name: data
resources:
# nvidia.com/gpu: 1
# memory: "24Gi"
# limits:
# cpu: 200m
# memory: 200Mi
# requests:
# cpu: 100m
# memory: 100Mi
- image: 'ollama/ollama:0.5.12'
command: ["sh", "-c", "while true; do ollama run deepseek-r1:1.5b; sleep 5; done"]
imagePullPolicy: IfNotPresent
name: ollamacmd
volumes:
- name: data
hostPath:
path: /root/k8s/moonfdd/ollama/root/.ollama/models/
type: DirectoryOrCreate
---
apiVersion: v1
kind: Service
metadata:
labels:
app: ollama
name: ollama
namespace: moonfdd
spec:
ports:
- name: 11434-11434
port: 11434
protocol: TCP
targetPort: 11434
nodePort: 11434
selector:
app: ollama
type: NodePort登录后复制?ollama 安装与运行实际效果展示
安装和运行 ollama 的命令如下:
kubectl apply -f ollama.yaml登录后复制
运行结果如下:




?Go 语言调用 deepseek 接口代码分析
仅仅运行 ollama 环境还不够,还需要有与之交互的代码来发挥其功能。这里展示了 Go 语言调用 deepseek 接口的代码:
package main
<p>import (
"bufio"
"bytes"
"encoding/json"
"fmt"
"net/http"
"time"
)</p><p>type Message struct {
Role string json:"role"
Content string json:"content"
}</p><p>// 修改请求结构体,添加 Stream 字段
type DeepSeekRequest struct {
Model string json:"model"
Messages []Message json:"messages"
MaxTokens int json:"max_tokens,omitempty"
Temperature float64 json:"temperature,omitempty"
Stream bool json:"stream" // 新增流式控制字段
}</p><p>// 保持其他结构体不变...</p><p>const (
localAPIURL = "<a href="https://www.php.cn/link/d50b2d3afe5ec033d560dd1318b2707b">https://www.php.cn/link/d50b2d3afe5ec033d560dd1318b2707b</a>"
)</p><p>func main() {
fmt.Println("开始")
requestData := DeepSeekRequest{
Model: "deepseek-r1:1.5b",
Messages: []Message{
{
Role: "user",
Content: "微信公众号 福大大架构师每日一题 是谁",
},
},
MaxTokens: 512000,
Temperature: 1,
Stream: true, // 启用流式模式
}
requestBody, err := json.Marshal(requestData)
if err != nil {
panic("JSON编码失败: " + err.Error())
}</p><pre class="brush:php;toolbar:false">// 配置更合理的超时时间
client := &http.Client{
Transport: &http.Transport{
DisableKeepAlives: true, // ? 关键设置:禁用连接复用
MaxIdleConns: 1,
IdleConnTimeout: 30 * time.Second,
},
Timeout: 10 * time.Minute, // 大模型响应时间较长
}req, err := http.NewRequest("POST", localAPIURL, bytes.NewBuffer(requestBody))
if err != nil {
panic("创建请求失败: " + err.Error())
}req.Header.Set("Content-Type", "application/json")
req.Header.Set("Connection", "close") // 显式关闭连接
req.Close = trueresp, err := client.Do(req)
if err != nil {
panic("请求发送失败: " + err.Error())
}
defer resp.Body.Close()// 流式响应处理
if resp.StatusCode != http.StatusOK {
fmt.Printf("请求失败,状态码:%d\n", resp.StatusCode)
return
}// 使用 Scanner 逐行读取流式响应
scanner := bufio.NewScanner(resp.Body)
scanner.Buffer(make([]byte, 1024), 10*1024*1024) // 扩大缓冲区
for scanner.Scan() {
rawData := scanner.Bytes()
if len(rawData) == 0 {
continue
}
var chunk DeepSeekChunk
err := json.Unmarshal(rawData[6:], &chunk)
if err == nil {
for i := 0; i < len(chunk.Choices); i++ {
if chunk.Choices[i].Delta.Content != "" {
fmt.Print(chunk.Choices[i].Delta.Content)
}
}
}
}if err := scanner.Err(); err != nil {
fmt.Printf("读取响应时发生错误: %v\n", err)
}登录后复制}
type DeepSeekChunk struct { Choices []struct { Delta struct { Content string json:"content" } json:"delta" } json:"choices" }
运行结果如下:

官网运行结果如下:

官网不联网运行结果如下:

?实际意义与展望
通过在 k3s (k8s) 上完成 ollama 的安装并运行 deepseek,以及编写 Go 语言调用接口代码这一系列操作,具有多方面的实际意义和深远的展望。从技术层面而言,这为开发者在特定的容器编排环境下集成模型服务提供了一套可参考的方法和实践经验。无论是对于后续想要在相似环境里部署其他模型,还是改进和优化当前模型的运行方式,都提供了宝贵参考范例。从应用场景角度来看,能够在这样的技术栈下调用模型进行文本处理、问答交互等,都能为诸多实际项目开发提供强大助力。比如开发智能客服系统、智能助手应用等。展望未来,这种技术实践将不断推动相关技术的发展和融合。随着模型的不断升级迭代,我们可以期待更多强大功能能够被整合进这样的环境里。同时,通过持续改进和优化 yaml 文件配置以及代码实现细节,将进一步提升系统的性能和稳定性。也相信会有更多开发者基于此进行创新和拓展,探索出更多的应用可能和技术思路。就像一颗石子投入平静湖面,会泛起层层涟漪般,这项技术实践也将在整个技术领域里引发新的探索和变革浪潮。
以上就是绝了!k3s (k8s) 安装 ollama 运行 deepseek 全流程揭秘,yaml全公开的详细内容,更多请关注楠楠科技社其它相关文章!