AI Infra Dao

AI Infra Brief|KubeCon EU 落地实践、LiteLLM 供应链攻击与 6G AI 原生网络(2026.04.07)

2026 年 4 月 7 日,云原生社区确认 Kubernetes 正从应用编排层升级为 AI 推理控制平面,推理安全供应链受到严重冲击,6G 网络的 AI 原生架构路线图逐渐清晰。

🧭 核心速览

☁️ KubeCon EU 2026:66% GenAI 负载已运行在 K8s 上,AI 推理合规计划认证激增

🔒 LiteLLM 供应链攻击:TeamPCP 利用 .pth 文件窃取数千企业云凭据

💰 Sona 完成 4500 万美元 B 轮,面向一线经济的 AI 运营平台

🌐 NVIDIA、Qualcomm、爱立信推进 6G AI 原生网络架构

⭐ OpenClaw 开源 AI 助手 GitHub 星标超 215K,生态加速扩张

🧠 Dante-2B:2×H200 从零训练双语开源 LLM

⛓️ Lithosphere 扩展开发者工具链,推进 AI 原生合约语言 Lithic

云基础设施与 Kubernetes

☁️ KubeCon EU 2026:Kubernetes 正式成为 AI 推理的"家庭操作系统"

根据 PulumiForbesKubermatic 的 KubeCon EU 2026 综述,本届大会的核心议题从"AI 能否跑在 K8s 上"转向"如何规模化运行"。关键数据:CNCF 调查显示 82% 的容器用户在生产环境运行 K8s,其中 66% 已部署 GenAI 负载;Kubernetes AI Conformance Program 认证产品数量激增;Google GKE、AWS EKS、Microsoft Azure Arc 均发布针对 AI 工作负载的调度和 GPU 管理增强。

本届 KubeCon 的一个共识是:K8s 已不再只是应用的编排平台,而是 AI 推理的控制平面。推理工作负载的有状态特性(模型权重、检查点、微调数据)对存储和备份提出了新要求,GPU 调度和多租户隔离成为平台工程的核心挑战。

💰 Sona 完成 4500 万美元 B 轮融资,面向一线经济 AI 平台

根据 MorningstarSiliconANGLE 报道,总部位于伦敦的 Sona 完成 4500 万美元 B 轮融资,其 AI 平台面向零售、酒店和医疗等一线行业,提供 AI 驱动的劳动力预测与排班、人力资源管理和运营效率工具。

Sona 的定位区别于通用 AI 平台——它聚焦于"一线经济"(Frontline Economy),即大量依赖人工排班和现场运营的行业。AI 驱动的预测排班和运营优化是这些行业的刚需,也是 AI 落地最快的场景之一。

安全与合规

🔒 LiteLLM 供应链攻击:.pth 文件后门窃取云凭据,波及数千企业

根据 PyPI 官方事件报告Trend MicroArthur AI 的深度分析,攻击组织 TeamPCP 于 3 月 24 日通过被盗 PyPI 凭据向 LiteLLM 推送恶意版本(1.82.7 和 1.82.8),利用 Python .pth 文件机制在包安装时自动执行恶意代码,窃取 AWS、GCP、Azure 凭据和 SSH 密钥。AI 招聘平台 Mercor 确认成为数千受害企业之一。攻击入口被指与安全工具 Trivy 的漏洞有关。

LiteLLM 是广泛使用的 AI Gateway 和多模型代理,这一事件暴露了 AI 推理工具链供应链的脆弱性:开发者信任的开源包可能成为凭据窃取的跳板。.pth 文件机制本身是 Python 的合法特性,但缺乏安装时审计使其成为攻击载体。对 AI 团队而言,依赖锁定、安装审计和最小权限是必须立即加强的环节。

📋 HHS 发布 AI 合规更新,推动医疗 AI 监管对齐

根据 Transparency CoalitionKatten 的立法追踪,美国卫生与公众服务部(HHS)持续推动 AI 在医疗领域的合规框架建设,近期更新涉及 AI 临床采用加速的 RFI 征询、Health IT 认证项目变更以及与 FDA、NIH、CMS 的跨机构协调。

HHS 的 AI 监管思路是"协调而非限制":通过 RFI 征询行业意见,识别现有法规对 AI 采用的障碍,再针对性调整。这对医疗 AI 基础设施的构建者意味着:合规不再是事后补丁,而是架构设计的前置约束。

网络与边缘计算

🌐 6G AI 原生网络架构路线图清晰化

根据 NVIDIAQualcomm爱立信 的最新公告,6G 网络的 AI 原生特性从概念走向具体架构设计。NVIDIA 与全球电信领导者承诺在开放安全的 AI 原生平台上构建 6G;Qualcomm 推出端到数据中心 AI 原生平台,统一连接、感知和计算;爱立信在 MWC 2026 展示"智能编织"(Intelligent Fabric)6G 架构,将 AI 嵌入无线接入网、边缘和核心网。

6G 的核心承诺是"网络即 AI 推理平台":AI 不再只是跑在网络上的应用,而是网络的构建材料。NVIDIA 推动开放平台、Qualcomm 统一端到数据中心架构、爱立信的 AI-RAN 概念,都在为 2030 年左右的首批商用 6G 服务铺路。

开源生态

⭐ OpenClaw:开源个人 AI 助手生态加速扩张

根据 GitHubTowards AI 报道,OpenClaw(“小龙虾”)作为开源个人 AI 助手项目持续增长,GitHub 星标超过 215K。项目支持 Windows/macOS/Linux 全平台部署,预置 Kimi K2.5 模型,自带服务网关、身份认证和 ClawHub 技能市场(已收录 5400+ 技能)。OpenClaw 定位为本地优先的 AI Agent 运行时,支持多 Agent 协作、持久化记忆和自主工作流。

OpenClaw 的增长轨迹反映了 AI Agent 从云端 SaaS 向本地自托管的转移趋势。5400+ 技能的 ClawHub 生态和 OpenViking 上下文数据库等周边项目,正在构建一个类似于 npm 的 Agent 技能分发体系。

🧠 Dante-2B:两块 H200 从零训练双语开源 LLM

根据 Reddit r/LocalLLaMA 社区帖子,开发者分享了 Dante-2B 项目的进展——一个 2.1B 参数的意大利语/英语双语开源 LLM,完全从零训练,使用 2×H200 GPU。项目第一阶段已完成,核心论点是"训练好模型不需要大规模集群,需要的是好数据和干净的训练管线"。

Dante-2B 的实践价值在于:它证明了在小规模硬件上从零训练一个有竞争力的模型是可行的。这对资源有限的团队和研究者具有启发意义,也与当前开源社区追求"小而精"模型的趋势一致。

📦 开源项目动态:Kafka-ML、TurboQuant 等

根据 GitHub kafka-ml 和社区讨论,Kafka-ML 框架在 Kubernetes 上管理 ML 模型管道,连接数据流与 TensorFlow/PyTorch 训练框架;TurboQuant 引入极量化压缩技术,据报道可将 LLM 内存占用降低 6 倍。此外,MemPalace(AI 记忆)、Hippo、Ghost Pepper 和 Freestyle 等开源项目在社区中获得关注。

这些项目的共同方向是降低 AI 基础设施的部署和运行成本:Kafka-ML 解决数据管道与模型训练的衔接问题,TurboQuant 通过极端压缩降低推理硬件门槛,记忆和 Agent 相关项目则丰富了 AI 应用的能力边界。

AI 原生区块链

⛓️ Lithosphere 扩展开发者工具链,推进 AI 原生合约语言 Lithic

根据 MarketWatchBarchart 报道,继 Makalu 测试网激活后,Lithosphere 进一步扩展开发者生态系统,推出 Lithic 工具链。Lithic 作为 AI 原生智能合约语言,允许将 AI 交互定义为合约逻辑的一部分,支持可验证执行和成本参数控制,同时提供跨链互操作协议 MultX 和 LEP100 标准。

Lithic 工具链的推出是 AI 原生区块链从"概念验证"向"开发者可用"的关键一步。合约层直接嵌入 AI 推理能力的设计,对链上 AI 决策场景(如 DeFi 风控、自动化治理)具有实际意义。

🔍 Infra Insights

本日核心趋势:K8s 成为 AI 推理的事实标准控制平面AI 工具链供应链安全成为不可忽视的风险面6G 将 AI 推理能力嵌入网络基础设施

KubeCon EU 2026 提供了一个清晰的信号:Kubernetes 已经不再是"能不能跑 AI"的问题,而是 66% 的 GenAI 负载已经在上面运行。AI Conformance Program 的认证激增和各大云厂商的 GPU 调度增强,意味着 K8s 作为 AI 推理控制平面的地位已确立。与此同时,LiteLLM 供应链攻击是一个严厉的提醒——AI 推理工具链越普及,攻击面越大;.pth 文件后门、Trivy 漏洞利用、数千企业凭据泄露的连锁反应,说明 AI 安全不能只关注模型本身,必须覆盖整个依赖链。6G 方面,NVIDIA、Qualcomm 和爱立信的同步推进显示:下一代网络的设计起点就是 AI 原生,网络不再是 AI 的传输管道,而是 AI 的运行平台。