8 月 14 日消息,北极雄芯今日官宣,该公司自主研发的启明 935 系列芯粒历经近 2 年的设计开发,已经成功交付流片。本次交付流片一次性投出两颗芯粒:
-
“启明 935”通用型 HUB Chiplet
-
原生支持 Transformer 全系算子的“大熊星座”AI Chiplet
北极雄芯于 2023 年初完成测试并发布了国内首个基于 Chiplet 架构的“启明 930”芯片,在国产封装供应链上成功完成了工艺验证;同年,该公司发布了首个基于国内《高速芯粒互联标准》的 D2D 接口 PB Link。
启明 935 系列芯粒包括以“启明 935”高性能通用 HUB Chiplet 为核心,以及“大熊星座”AI Chiplet 和 GPU Chiplet 等功能型 Chiplet 的芯粒家族,基于车规级要求设计,通过灵活搭配可快速生成面向自动驾驶、具身智能、AI 推理加速等场景的终端产品。附两款芯粒官方介绍如下:
“启明 935”高性能通用 HUB Chiplet:
内含多核 ARM Cortex-A 系列 CPU 子系统提供核心计算能力,采用了 PCIe5.0、LPDDR5 等接口及存储方案,内置了北极雄芯自主研发的车规级 Zeus Gen2 NPU Core 提供 AI 加速算力,启明 935 HUB Chiplet 自身可作为 AI SoC 独立使用。
除此之外,HUB Chiplet 中还包含视频编解码模块、ISP 模块、万兆网口及 MIPI 接口、信息安全及功能安全模块等,符合车规级设计要求。
每个 HUB Chiplet 搭载了 4 个独立的 PB Link 接口提供合计 128GB/s 的芯粒互联带宽,可与其他功能型芯粒拓展组合以满足不同场景差异化的功能需求以及算力拓展需求。
“大熊星座”AI Chiplet:
内含多核自主研发的 Zeus Gen2 NPU Core,不同 NPU Core 既可独立运行,也可联合运行加速同一任务。
原生支持 Transformer 全部算子,Zeus Gen2 NPU Core 支持 INT4,INT8,INT16 及 FP16 等计算精度,支持常见的卷积层、线性层、池化层和激活层,功能上支持常用检测、分类等模型,包括但不限于 VGG,ResNet,Yolo 等。
支持 PyTorch、TensorFlow、PaddlePaddle、ONNX 等主流 AI 框架,在不同 AI 模型上实测平均利用率达到 70% 以上。
此外,该公司应用于智能座舱领域的 GPU Chiplet 也在同步开发中,预计将于 2025 年中交付流片。
北极雄芯介绍称,基于 935 HUB Chiplet 及 AI Chiplet 异构集成的多颗自动驾驶芯片已于 2024 年取得 SGS 以及中汽研境内外 ISO-26262 ASIL-B 车规级双认证,是国内首个取得车规级认证的 Chiplet 产品,预计将于 2024 年底提供核心板交付下游开展适配工作。
除了应用于智能驾驶领域外,基于 935 HUB Chiplet 与 AI Chiplet 组合的 AI 推理加速模组 / 加速卡也可应用于边缘侧及端侧 AI 推理应用领域(AI 推理一体机、工控机、机器人等),并可支持 70B 的大模型推理加速。
启明 935 HUB Chiplet 号称既可独立使用,也可作为通用型 Chiplet 基座进行拓展开发,将成为“国内首个兼具 CPU Chiplet 及 Memory Chiplet 功能的独立通用型 Chiplet”。