AI Infra Dao

AI Infra Brief|企业 AI 基础设施化、Agent 进入生产、Claude Code 源码泄露(2026.04.01)

2026 年 4 月 1 日,企业将 AI 从研发正式纳入核心基础设施,Agent 系统向生产环境迁移,而 Claude Code 源码泄露事件则暴露了 AI 工具链供应链的脆弱性。

🧭 核心速览

⚠️ Claude Code 源码通过 NPM source map 泄露,引发工程严谨性讨论

🤖 AWS 推出 DevOps Agent,基于 Bedrock AgentCore 实现自主事件响应

📊 AWS 发布 AgentCore Evaluations,衡量和监控 Agent 性能

🏢 JPMorgan 将 AI 从研发重新归类为核心基础设施

🛡️ Depthfirst 融资 8000 万美元,推出自研安全模型

🌐 Axe Compute 融资 3.435 亿美元,43.5 万 + GPU 算力储备

🇮🇳 印度首个开源教育 LLM 栈上线

安全与供应链

⚠️ Claude Code 源码通过 NPM source map 泄露

根据 Reddit 讨论,Claude Code 的源码通过 NPM 包中的 source map 文件意外暴露,引发社区对工程严谨性和 AI 辅助代码风险的广泛讨论。

另一条讨论将泄露归因于此前已报告的 Bun bug——该 bug 导致 source map 被包含在生产构建中,强调了 AI 开发工作流中运行时和工具链的风险。

source map 泄露看似是打包配置疏忽,但在 AI 工具链中其影响被放大:暴露的代码可能揭示编排逻辑、API 密钥管理和内部架构。这一事件提醒团队,AI 工具的安全审计需要覆盖整个构建和分发链路。

Agent 基础设施

🤖 AWS 推出 DevOps Agent,基于 Bedrock AgentCore 实现自主事件响应

根据 AWS Blog 报道,AWS 推出 DevOps Agent,这是一个基于 Bedrock AgentCore 构建的自主事件响应队友,可加速 SRE 工作流中的查询并降低成本。

将 Agent 引入 DevOps 事件响应是 AIOps 的自然演进。自主化的故障排查和修复能力可显著缩短 MTTR,但对 Agent 操作边界的治理将成为关键挑战。

📊 AWS 发布 AgentCore Evaluations,衡量和监控 Agent 性能

根据 AWS Blog 报道,AWS 详细介绍了 AgentCore Evaluations,这是一个托管服务,用于衡量和监控 Agent 性能,支持基于 Lambda 的自定义评估器。

Agent 性能的可观测性是生产部署的前提。自定义评估器允许企业根据业务场景定义 Agent 的成功标准,填补了通用基准与实际业务需求之间的差距。

企业级 AI 部署

🏢 JPMorgan 将 AI 从研发重新归类为核心基础设施

根据 X 讨论,JPMorgan 据报将 AI 从研发部门重新归类为核心基础设施,内部 LLM 获得广泛采用。

大型金融机构将 AI 列为核心基础设施标志着行业认知的根本转变:AI 不再是创新实验,而是与数据库、网络同等重要的运营基座。这种组织架构调整将影响预算分配、人才结构和合规框架。

🚀 Meta 自适应排序方案实现 LLM 规模的亚秒级延迟

根据 Meta Engineering 报道,Meta 描述了一种自适应排序方案,将模型复杂度与用户意图对齐,通过选择性 FP8 量化和专用内核实现 LLM 规模的亚秒级延迟。

将推理复杂度动态匹配用户意图是成本优化的高级策略。不是所有请求都需要完整模型推理,选择性量化可以根据查询复杂度动态调整计算预算。

算力与云基础设施

🛡️ Depthfirst 融资 8000 万美元,推出自研安全模型

根据 SiliconANGLE 报道,Depthfirst 融资 8000 万美元扩展 AI 原生安全平台,并推出成本高效的内部模型用于智能合约保护。

安全领域的垂直模型正在形成独立赛道。通用安全模型难以覆盖智能合约等细分场景的专业需求,Domain-specific 模型在精度和成本上更具优势。

🌐 Axe Compute 融资 3.435 亿美元,43.5 万 + GPU 算力储备

根据 GlobeNewswire 报道,Axe Compute 报告完成 3.435 亿美元融资,并通过 Aethir 去中心化网络建立超过 43.5 万块 GPU 的战略算力储备。

去中心化 GPU 网络正在成为传统云算力的补充选项。43.5 万 GPU 的储备规模显示了分布式计算在弹性算力供应方面的潜力。

主权与去中心化技术栈

🇮🇳 印度首个开源教育 LLM 栈上线

根据 X 讨论,印度首个开源教育 LLM 栈上线,基于 Mistral-7B 的多 LoRA 架构配合无服务器推理,明确被定位为基础设施。

将教育 LLM 定位为基础设施而非应用,反映了 AI 即公共品的理念。多 LoRA 架构允许不同学科领域快速定制,无服务器推理降低了运维门槛。

🔗 Uniblock 融资 520 万美元构建统一区块链 AI 基础设施

根据 Decrypt 报道,Uniblock 融资 520 万美元,提供统一区块链 API 和 AI 原生工具。

区块链与 AI 的结合正在从概念验证走向基础设施化。统一 API 层降低了开发者的集成复杂度。

开源生态

☁️ llm-d 进入 CNCF Sandbox,分布式 LLM 推理成为云原生工作负载

根据 CNCF 公告,llm-d 进入 CNCF Sandbox,将分布式 LLM 推理视为跨主流加速器的一等云原生工作负载。

llm-d 进入 CNCF Sandbox 标志着分布式推理获得云原生社区的正式认可。将 LLM 推理纳入 Kubernetes 生态意味着 GPU 工作负载的管理和调度将遵循云原生最佳实践。

📐 Gram Newton-Schulz 优化器将大模型 FLOPs 减半

根据 GitHub 项目,Gram Newton-Schulz 优化器针对大模型将 FLOPs 减半,并提供针对 Hopper/Blackwell 架构调优的内核。

训练优化器的改进直接影响训练成本和速度。FLOPs 减半意味着在相同硬件上可以训练更大模型或更快完成训练,对大规模模型训练具有实际意义。

🔌 Portkey Gateway 开源 AI 控制平面

根据 The New Stack 报道,Portkey Gateway 开源了 AI 控制平面,提供生产环境的治理、可观测性和成本控制能力。

AI 网关正在从简单的请求代理演变为完整的控制平面。治理、可观测和成本控制是企业生产部署的三大刚需,Portkey 的开源降低了这些能力的采用门槛。

🎛️ Hollow-AgentOS 发布事件驱动 Agent 操作系统

根据 GitHub 项目,Hollow-AgentOS 发布了一个事件驱动的 Agent 操作系统,包含状态管理、调度和 MCP 服务器。

Agent 操作系统是管理多 Agent 协作的基础设施层。事件驱动架构适合处理 Agent 工作流中的异步和并发场景,MCP 服务器集成则确保了工具调用的标准化。

市场趋势

🇨🇳 中国 LLM 使用量连续四周超过美国

根据 DIGITIMES Asia 报道,LLM 在中国的使用量已连续第四周超过美国,受 OpenClaw 和不断变化的 token 经济驱动。

中国 LLM 使用量的持续领先反映了本地化应用的快速普及和 token 成本的下降。OpenClaw 等开源工具降低了开发者接入门槛,token 经济的变化正在重塑使用模式。

🔍 Infra Insights

本日核心趋势:企业 AI 从创新实验升级为核心基础设施Agent 系统进入标准化运维阶段AI 工具链供应链安全成为董事会级风险

JPMorgan 将 AI 重新归类为核心基础设施是本日最具象征意义的事件,它标志着 AI 在大型企业中的定位已从"试验项目"转向"运营基座"。AWS 的 DevOps Agent 和 AgentCore Evaluations 则提供了 Agent 生产化的具体工具路径——从自主事件响应到性能监控,Agent 正在被纳入标准运维体系。然而,Claude Code 源码泄露事件敲响了警钟:AI 工具链的供应链安全不再是技术细节而是系统性风险。Bun 的 source map bug 导致生产构建暴露源码,说明 AI 工具的安全审计需要覆盖从构建到分发的完整链路。开源层面的进展同样值得关注:llm-d 进入 CNCF Sandbox 意味着分布式推理正式成为云原生一等公民,Gram 优化器和 Portkey Gateway 分别从训练和推理两侧降低成本和复杂度,Hollow-AgentOS 则试图为多 Agent 协作建立操作系统层的基础设施。中国 LLM 使用量连续四周超过美国、印度开源教育 LLM 栈上线,则从全球视角显示 AI 基础设施的民主化正在加速。