阅读时间约 5 分钟

主权AI

在 Karma One 中,「主权AI」意味着你的数据永远不会离开你控制的基础设施。无论是文字对话、图片生成还是图片分析,所有 AI 处理都在你指定的安全环境中完成——没有第三方能接触到你的数据。

什么是主权AI

传统的 AI 服务需要将你的数据发送到云端(通常是 OpenAI、Google 等第三方服务器)进行处理。而主权AI则确保:

  • 你的输入数据不会传输到任何第三方
  • AI 模型运行在你控制的基础设施上
  • 处理过程和结果完全在你的管辖范围内
  • 没有任何外部实体可以访问你的数据
传统 AI:
你的数据 → 互联网 → 第三方云服务器 → 处理 → 返回结果

主权 AI:
你的数据 → 你的基础设施 → 你的 AI 模型 → 处理 → 返回结果
                 (数据从未离开)

小贴士:主权 AI 是 Karma One 的可选功能。如果你对数据安全没有特殊要求,使用默认的云端 AI 服务即可获得最佳性能和最新模型。

两层主权架构

Karma One 提供两个层级的主权AI,满足不同的安全需求和部署场景:

| 层级 | 名称 | 部署位置 | 适用场景 | |------|------|----------|----------| | 第一层 | 云端主权模型 | KARMA 自有云基础设施 | 日常使用,平衡性能与安全 | | 第二层 | 本地高级主权模型 | 你的 Mac 本地(Karma Box) | 最高安全级别,完全离线 |

如何选择

你的需求是什么?
│
├─ 不想让数据经过 OpenAI/Google
│   └─ 使用「云端主权模型」(第一层)
│
├─ 数据绝对不能离开本地设备
│   └─ 使用「本地高级主权模型」(第二层)
│
└─ 没有特殊安全要求
    └─ 使用默认模型即可(性能最优)

云端主权模型

云端主权模型运行在 KARMA 自有的云基础设施上。你的数据不会经过 OpenAI、Google 或任何第三方 AI 服务商。

特点

  • 由 KARMA 自主运营和管理的 AI 模型
  • 数据通过主权基础设施处理,不经过第三方
  • 无需额外安装和配置,开箱即用
  • 兼顾安全性和性能

支持的能力

| 能力 | 说明 | |------|------| | 文字对话 | 通过主权模型进行对话和推理 | | 图片生成 | 使用主权模型生成图片 | | 图片分析 | 使用主权视觉模型分析图片内容 |

如何触发

在对话中使用以下关键词即可触发云端主权模型:

"使用主权AI模型 帮我分析这张包含公司财务数据的截图"
"使用云端自有模型 生成一张产品海报"
"主权模型 帮我总结这份报告"
"sovereign model analyze this image"

触发关键词列表:

  • 使用主权AI模型(注意:没有「高级」二字)
  • 使用云端自有模型
  • 主权模型
  • sovereign model

小贴士:云端主权模型适合日常工作中涉及公司内部数据的场景。你不需要安装任何额外软件,只需在对话中指定使用主权模型即可。

本地高级主权模型

本地高级主权模型运行在你自己的 Mac 上(通过 Karma Box),数据完全不会离开你的设备。这是最高级别的数据安全保障。

支持的模型

Karma Box 支持在本地部署和运行以下开源模型:

| 模型 | 说明 | 推荐场景 | |------|------|----------| | Qwen3 | 阿里通义千问系列 | 中文对话和理解 | | GLM | 智谱清言系列 | 中文综合任务 | | Llama | Meta 开源系列 | 英文和通用任务 | | Ollama 生态 | 数百个开源模型 | 灵活选择,按需加载 |

特点

  • 完全在你的 Mac 上运行,断网也能使用
  • 数据永远不会离开你的设备
  • 支持文字对话、图片生成、图片分析
  • 模型通过 Ollama 加载 GGUF 格式的量化模型

如何触发

"使用高级主权AI模型 帮我分析这份机密合同"
"高级主权AI 看一下这张设计稿"
"用本地模型 帮我翻译这段话"
"Karma Box自有模型 生成一张内部海报"
"local model generate an image of..."

触发关键词列表:

  • 使用高级主权AI模型
  • 高级主权AI
  • Karma Box自有模型
  • 在Karma Box上部署的模型
  • 本地模型
  • local model

注意:「高级主权AI」和「主权AI」是两个不同的触发层级。带「高级」的指向本地 Karma Box 模型,不带「高级」的指向云端主权服务。请根据你的实际部署情况使用正确的关键词。

图片生成的主权版本

Karma One 的图片生成功能同样提供主权版本,确保你的创意和数据安全:

云端主权图片生成

你:使用主权AI模型,生成一张公司产品的宣传图
AI:[通过主权模型生成] 已生成宣传图,图片处理全程在主权基础设施内完成。

本地图片生成

你:使用高级主权AI模型,生成一张内部使用的流程图
AI:[通过本地模型生成] 已在本地生成图片,数据未离开你的设备。
  • 多种尺寸可选(1024x1024、1024x1792、1792x1024)
  • 支持中英文提示词
  • 本地生成时间视硬件配置而定,通常需要 3-10 秒

图片分析的主权版本

当你需要分析包含敏感信息的图片时,主权版本的图片分析尤为重要:

| 版本 | 触发方式 | 数据路径 | |------|----------|----------| | 云端主权分析 | 「使用主权AI模型」+ 上传图片 | 图片发送到 KARMA 主权基础设施 | | 本地高级分析 | 「使用高级主权AI模型」+ 上传图片 | 图片完全在本地处理 |

你:使用高级主权AI模型,分析这张包含客户信息的表格截图
AI:[本地模型分析] 这张表格中包含以下客户信息...
    (图片数据未离开你的设备)
  • 支持 PNG、JPEG 格式
  • 可以描述图片内容、提取文字、分析场景
  • 支持从文件路径直接读取

适用场景

敏感数据处理

| 场景 | 推荐方案 | |------|----------| | 公司财务报表分析 | 云端主权模型 | | 客户个人信息处理 | 本地高级主权模型 | | 内部战略文档讨论 | 云端主权模型 | | 医疗健康数据 | 本地高级主权模型 | | 法律合同审查 | 本地高级主权模型 | | 企业内部宣传素材 | 云端主权模型 |

合规要求

对于有严格数据合规要求的行业:

  • 金融行业:客户数据不得传输至第三方,使用本地高级主权模型
  • 医疗行业:患者信息受隐私法规保护,使用本地模型
  • 政府机构:涉密信息需在指定网络内处理,使用本地模型
  • 法律行业:客户案件信息需保密,使用主权模型
  • 支持满足 GDPR、等保三级、HIPAA 等合规框架

离线环境

在无法访问互联网的环境中(如内网办公、涉密环境、出差途中):

  • 本地高级主权模型可以完全离线运行
  • 不依赖任何网络连接
  • 所有 AI 能力照常可用(对话、图片生成、图片分析)

配置步骤

云端主权模型

云端主权模型无需额外配置,开箱即用:

  1. 确保你的 Karma One 账号已开通主权AI功能
  2. 在对话中使用「使用主权AI模型」关键词即可触发

本地高级主权模型

配置本地模型需要以下步骤:

  1. 安装 Karma Box:参见 Karma Box 的安装指南

  2. 安装 Ollama

    • 访问 ollama.com 下载并安装 Ollama
    • 安装完成后 Ollama 会作为系统服务运行
  3. 下载模型

    • 打开终端,运行 ollama pull 命令下载所需模型
    • 文本模型推荐:llama3.1qwen2.5
    • 视觉模型推荐:llavabakllava
    • 图片生成模型由 Karma Box 内置的推理引擎处理
  4. 验证安装:在 Karma One 对话中使用「使用高级主权AI模型」测试

硬件建议

| 硬件配置 | 文本生成速度 | 图片分析速度 | 图片生成速度 | |----------|-------------|-------------|-------------| | M1 (8GB) | 约 10 tokens/s | 约 5-10 秒 | 约 10-30 秒 | | M2 Pro (16GB) | 约 25 tokens/s | 约 3-5 秒 | 约 5-15 秒 | | M3 Max (36GB) | 约 40 tokens/s | 约 2-3 秒 | 约 3-10 秒 | | M4 Max (48GB) | 约 50+ tokens/s | 约 1-2 秒 | 约 3-8 秒 |

小贴士:Apple Silicon (M1/M2/M3/M4) 芯片的 Mac 在运行本地模型时有显著的性能优势。首次下载模型可能需要较长时间,但下载完成后即可完全离线使用。

三种模式对比

| 对比项 | 默认模型 | 云端主权模型 | 本地高级主权模型 | |--------|----------|--------------|------------------| | 性能 | 最高 | 高 | 取决于硬件 | | 数据安全 | 标准 | 高(不经第三方) | 最高(不离开设备) | | 网络要求 | 需要 | 需要 | 不需要 | | 额外配置 | 无 | 无 | 需安装 Karma Box + Ollama + 模型 | | 成本 | 按量计费 | 按量计费 | 硬件成本 | | 模型选择 | 最丰富 | KARMA 自有模型 | 开源模型 | | 多用户 | 支持 | 支持 | 单用户 |

根据你的具体需求选择合适的模式,也可以混合使用——日常对话用默认模型追求效率,涉及敏感数据时切换到主权模型保障安全。

常见问题

Q:可以同时使用主权AI和默认AI吗? 可以。你可以在同一个对话中灵活切换——默认使用云端 AI 获得最佳性能,需要处理敏感数据时切换到主权 AI。

Q:如果不使用关键词,数据会走主权通道吗? 不会。主权 AI 是按需触发的,只有在使用特定关键词时才会激活。普通对话默认使用标准云端 AI 服务。

Q:本地模型可以自动更新吗? 目前本地模型需要手动更新。你可以通过 Ollama 命令下载最新版本的模型。

Q:本地模型的智能水平和云端模型一样吗? 本地模型的智能水平通常低于最新的云端大模型(如 Claude、GPT-4),但对于大多数日常任务已经完全够用。选择主权AI更多是出于数据安全的考量。