加入收藏 | 设为首页 | 交流中心 | 我要投稿 | RSS
您当前的位置:首页 > 技术中心 > 高谈阔论

[AI处理器] SOPHGO BM1684X:一款支持大模型的高性能商用终端AI处理器(MICRO'24)论文阅读(上)

时间:2025-09-28 21:31:25  来源:  作者:
文章来源:

摘要

  • BM1684X 是 SOPHGO 公司开发的一款前沿 AI 处理器,其设计专为满足当前和未来大模型 AI 应用的高性能需求
  • 技术亮点

设计中采用了具有超大数据宽度的 SIMD 架构 fHK快充网络

  • ,以减少指令单元的面积占比,并大幅提升计算能力密度
  • 执行单元(EU)内定制了特殊加速指令,支持动态流水线

  • 执行,从而减少了总指令数量和执行时间。提升了 TPU 在处理 RQ(ReQuantization,重量化)和 DQ(DeQuantization,去量化)操作时的性能,这些操作对 AI 计算至关重要
  • TPU 内部的 CUBE 数组
  • 在特征图的通道维度上实现了 64 对 INT8 操作数的乘加运算。通过使用加法树替代传统加法器,显著降低了面积与功耗,从而优化了 TPU 的效率
  • BM1684X 处理器在通道内集成了一个具有 64 输入-64 输出的 8 位交叉开关(crossbar),以实现高性能的数据聚合。该交叉开关结构增强了数据聚集能力,使 TPU 架构内的数据处理与操作更为高效
  • BM1684X 还提供三种不同的内存访问模式,展现出该处理器在应对各类 AI 处理需求方面的多样性,同时优化了对 DRAM 的使用,适配各种任务和工作负载
  • 最后设计了一套 TPU-MLIR
    • 工具链,其特点包括:支持多个框架的统一处理、模型抽象的层次化设计、每一步转换的正确性保障与可追溯性等
  • BM1684X 在为包括大模型在内的多种 AI 模型提供高性能计算方面表现出色,并通过与业界领先产品的全面评估,展示了其强大能力

1 引言

  • AI技术演进背景与边缘 AI 计算的兴起
    • 随着大规模神经网络(通常被称为“大模型”)的出现,成为推动 AI 技术进步的重要力量。深度学习的发展可大致划分为以下几个阶段:fHK快充网络
      1)2012 年,AlexNet 的问世在 ImageNet 竞赛中取得了突破性的精度提升,标志着第一阶段的到来。此时期的重要 AI 模型包括 CNN、RNN 和 LSTM,它们在视觉感知任务中已超越人类表现,并具备了一定的语言理解能力;fHK快充网络
      2)随着论文《Attention is All You Need》的发表,Transformer 类型网络开始崭露头角。这类 AI 模型在视觉领域的准确率可媲美 CNN,同时在自然语言处理领域的表现也得到了极大提升。但值得注意的是,此阶段的 Transformer 网络规模尚不算大;fHK快充网络
      3)大模型阶段由 ChatGPT 以及近期发布的一些多模态大模型网络所代表。它们在图像与自然语言的理解和生成能力上实现了飞跃,其强大的效果进一步引发了对云计算与终端侧计算机会的探索
    • AI 技术的普及也推动了 AI PC(搭载 AI 能力的个人计算机)的兴起。各行业公司都意识到将 AI 能力融入个人计算设备的潜力,这不仅促进了本地处理,还能加快决策过程。该趋势正持续升温,截至 2023 年,已有大量公司积极布局与 AI PC 相关的项目
    • AI PC 的兴起又催生了“边缘 AI 计算能力”的概念。将 AI 能力下沉到终端设备,已成为一项战略重点。本地 AI 处理所带来的优势,如:更低的延迟、更高的效率、更好的隐私保护,正推动 AI 能力逐步嵌入到智能手机、物联网设备及其他终端产品中
  • BM1684X 的定位与应用范围
    • BM1684X 是由 SOPHGO 设计开发的,目标是在图像分类、目标检测、实例分割、语义分割、行为分析、文本识别、语言处理、语音识别、语音合成、搜索推荐等广泛任务中表现出色
    • 其全面的应用覆盖使其成为多个领域中强有力的工具,确保它始终走在技术前沿
  • 本文的主要贡献包括
    • 采用超大数据宽度的 SIMD 架构,在 TPU 设计中有效减少了指令单元的面积占比,同时显著提升了计算密度
    • 在执行单元中定制了特殊加速指令,以支持动态流水线执行,从而减少总指令数量和执行时间,提升 TPU 在 RQ 和 DQ 处理中的性能
    • CUBE 数组实现了特征图通道维上 64 对 INT8 操作数的乘加运算。该乘加运算采用加法树而非传统加法器,实现了对面积与功耗的大幅优化。
    • 在计算通道中集成了 64 输入、64 输出的 8 位交叉开关,实现高性能数据聚合
    • BM1684X 提供三种内存访问模式,展现出其在满足多样化 AI 处理需求与优化 DRAM 使用方面的灵活性
    • TPU-MLIR 工具链引入了一种多框架处理能力,支持多种主流神经网络框架。该工具链通过分层设计将神经网络模型抽象为不同层级,以提升处理效率
    • 在多种常见 AI 模型及不同 batch size 下开展性能评估,全面验证了 BM1684X 在各类任务(包括大模型)下的效率表现,并与业界领先产品进行对比

2 SoC(系统级芯片)

  • BM1684X 集成了丰富的功能模块,每个模块都针对高性能计算及更广泛场景中的特定需求进行了优化,如图 1 所示。主要模块包括:
    • DDR 子系统
      • 负责在内存与各处理单元之间传输数据,总带宽达 68.256 GB/s
DDR(Double Data Rate,双倍数据速率内存),在时钟的上升沿和下降沿都传输一次数据,相较于传统内存速率翻倍
  • TPU(张量处理单元)子系统
    • 可以执行复杂的数学运算,计算能力如下:
      • 向量计算能力:2TFLOPS(FP32)、4TFLOPS(FP16/BF16)、8TOPS(INT8)
      • 矩阵计算能力:32TOPS(INT8)、16TFLOPS(FP16/BF16)
TFLOPS:Tera Floating Point Operations Per Second,每秒万亿次浮点运算fHK快充网络
TOPS:Tera Operations Per Second,每秒万亿次整数操作
  • AP(应用处理器)子系统
    • 由 ARM 的八核 A53 处理器构成,主频为 2.3GHz,为通用计算任务提供支持
  • HSPeri(高速外设)子系统
    • 用于连接外部设备和高速外设,支持 PCIe Gen3 x16 endpoint,或 PCIe Gen3 x8 endpoint + PCIe Gen3 x8 root complex
BM1684X 提供灵活的 PCIe 配置,既能作为高速 AI 加速器外挂到服务器,也能作为嵌入式主控芯片控制其他设备
  • Peri(通用外设)子系统
    • 扩展了 BM1684X 与多种设备的兼容连接能力
  • 视频子系统
    • 负责视频处理,支持高清视频的编解码功能
  • 安全引擎
    • 保障数据安全与操作的可信性
  • 图 2 展示了 BM1684X 的晶圆照片。芯片采用 12nm 工艺,芯片面积为 175mm²,其中约 40% 用于 TPU。其功耗与 TPU 的负载密切相关,在室温 25°C 且 TPU 满载运行时功耗约为 25W
  • BM1684X 主要针对两种典型业务场景:
    • 场景一:
      • 首先对压缩格式的视频或图像输入进行解码;
      • 接着进行 AI 预处理(如色彩空间转换、图像裁剪、缩放等);
      • 然后使用深度学习算法进行处理,实现图像分类、目标识别、OCR 等功能
    • 场景二:
      • 直接对已预处理或无需预处理的数据执行深度学习推理;
      • 适用于 NLP、Transformer 等模型;
      • 此类模型通常受 DRAM 带宽限制
      • 特别适合 batch size = 1 的边缘计算场景,且无需视频编解码功能
  • 上述两种场景对 DRAM 访问有不同需求:
    • 场景一:需要视频解码、图像预处理、TPU、AI 算子加速等多个模块同时访问 DRAM,如何分配带宽和满足访问延迟要求是关键问题;
    • 场景二:主要只有 TPU 与 AI 加速模块访问 DRAM,关注如何充分利用带宽
  • BM1684X 提供三种内存访问工作模式,分别适配不同的访问模式与任务需求,如图 3 所示。内存子系统由四个独立的 DDR 通道组成:DDR0A、DDR0B、DDR1 和 DDR2,支持高速数据访问与存储
    • 1. Interleave Off 模式(关闭交叉地址模式):
      • 所有 DDR 通道地址不交叉;
      • 每个通道独立访问,互不干扰;
      • 适用于调试场景,便于控制模块访问哪个通道,更容易定位 bug
    • 2. Twin Interleave 模式(双通道交叉):
      • DDR0A 和 DDR0B 以 4KB 单元交叉地址;
      • DDR1 和 DDR2 保持非交叉;
      • 适用于 TPU 需要高效访问特征图和权重数据(放置在 DDR0A/B);
      • DDR1 和 DDR2 为 TPU、视频子系统、HSPeri 提供内存服务;
      • 视频与 TPU 子系统带宽独立,互不竞争
    • 3. Quadruplets Interleave 模式(四通道全交叉):
      • 四个 DDR 通道地址以 4KB 单元交叉;
      • 合并所有通道资源;
      • 最大化内存容量使用率,减少子系统间的带宽竞争;
      • 特别适合场景二,使 TPU 和 AI 加速模块充分利用 DRAM 带宽
  • 图 4 展示了这两种典型业务场景中的数据流路径
VPP(Video PreProcessing,视频预处理)位于负责将解码后的图像数据转换成适合 AI 模型处理的格式

3 TPU子系统

  • TPU 子系统的架构如图 5 所示,TPU 负责张量计算,具备 64 条执行通道(lane)和 SIMD 并行处理能力。TIU(Tensor Instruction Unit)将 64 条 lane 的数据组合成一个 64×8 的块,并通过环形总线(ring bus)广播到每个 lane,以进行矩阵乘法
  • 微架构如图 6 所示。HAU(硬件加速单元)用于加速 AI 应用中的关键计算,包含 GDE
(数据聚合引擎)、SORT(排序引擎)、NMS(非极大值抑制引擎)等模块。GDMA
  • (通用 DMA)负责不同内存层级之间的数据搬运,包括 DDR、局部内存、本地 L2 缓存
  • AP Lite 以 PIO(程序化输入输出)模式工作,调度 TPU、GDMA 和 HAU 的执行,并根据需要处理标量计算。TPU、HAU、GDMA 拥有 AXI 从接口用于配置,AP Lite 则通过 AXI 总线对这些模块进行控制。
AP Lite(Application Processor Lite)是一个轻量级控制处理器模块,它不执行复杂的 AI 运算任务,而是用于协调和调度整个 TPU 子系统的工作。fHK快充网络
AXI 全称 AMBA AXI(Advanced eXtensible Interface),是 ARM 推出的 一种片上通信总线协议,常用于片上系统(SoC)中各模块之间的数据交换

A. 超宽数据的 SIMD 架构

  • SIMD 是一种并行数据处理技术,在现代计算中被广泛采用,尤其适用于处理大规模数据。SIMD 架构允许一条指令同时操作多个数据。BM1684X 的 TPU 采用超大数据宽度的 SIMD 架构:
    • TIU 为控制单元;
    • Lane 为执行单元;
    • 64 条 lane 构成了一个宽度为 32684 比特的矢量并行处理器
  • TIU 占用面积小,便于拓展新功能,而 lane 的结构保持稳定,设计变动较小。选择使用超宽 SIMD 架构的原因:
    • 单次操作处理更多数据,大幅提高吞吐率;
    • 尤其适合图像处理、科学计算、大数据分析等场景;
    • 指令数量与执行时间大幅减少,能耗更低;
    • 简化指令集设计与编程复杂度

B. TPU Lane 的微架构

  • 每条 lane 包括以下模块,微架构如图 7所示:
    • DP(调度器):协调控制信息,转发请求到对应模块;
    • DPC(数据路径控制器):处理操作数请求,读写数据;
    • LMEM(局部内存):每 lane 配备 256KB,读写带宽为 512-bit,具有双读双写口,但同一时间不能访问同一 bank;
    • DPDMA:处理 DMA 总线请求;
    • EU 和 CUBE:主要计算阵列,EU 支持多种运算,CUBE 专用于卷积和矩阵乘法

1. EU(执行单元):fHK快充网络

  • EU 包含多种运算模块:ALU、IMAC、RSS、FADD、FMUL、数据类型转换等
  • 操作数和 eu_cmd(TIU 解码得到的控制信号)被送入 EU,执行完成后写回 LMEM
  • EU 采用数据流架构,由 TIU 发出的微指令(ucode)控制数据流:
    • 可实现有向无环图或循环图结构的原子操作;
    • 支持浮点开方倒数、除法等复杂流程;
    • 为节省功耗与提高性能,TPU 不使用寄存器文件,直接用 SRAM 存取操作数;
    • 通过指令融合与数据前传机制降低 SRAM 读写频率;
    • 运算单元之间可复用中间结果,避免中间值写回 SRAM

2. CUBE:fHK快充网络

  • 专用于卷积 / 矩阵乘法计算,支持:
    • INT8:每条 lane 上有 64×4 的 MAC 阵列,可并行处理 4 点部分和,总体为 64×64×4;
      • 性能达 32 TOPS(1GHz 下);
      • 权重可复用 16 次,有效节能;
      • 通道方向的 64 维乘加可优化 MAC 单元面积与功耗
    • FP16/BF16:每 lane 有 32×4 MAC 阵列,总计为 64×32×4;
      • 性能达 16 TOPS;
      • 输出支持 FP16/BF16/FP32;
      • 融合加法器减少面积与功耗,权重最多可复用 16 次;
      • 支持按通道量化操作,无需额外周期,提升 CUBE 使用率
  • 图 11 展示了在 CUBE 模块中进行 FP16/BF16 乘加运算并支持可配置输出精度的完整流程
执行流程说明:fHK快充网络
1. 输入为两组矩阵(FP16 或 BF16 类型):可用于矩阵乘法(GEMM)或卷积运算,每个元素都需要参与乘加操作fHK快充网络
2. 计算阶段:multiply(乘法)将 FP16/BF16 数据两两相乘;align(对齐)将不同指数位的数据对齐,以便进行加法;accumulate into FP32(累加为 FP32)将累加结果临时提升为 FP32 精度,可避免 FP16/BF16 在累加过程中的精度丢失,这个中间过程称为 partial sum(psum)acc(bias / psum)加上偏置(bias)或进行部分和累积,这一步也在 FP32 精度下进行,结果通过反馈路径返回参与下一步fHK快充网络
3. 转换阶段:根据模型或用户配置,将最终结果从 FP32 转换为:FP32(精度优先)、FP16(节省内存和带宽)或 BF16(兼顾范围与效率)

3. Crossbar(交叉开关):fHK快充网络

  • 读取 LMEM 后,常需重新排列数据;
  • 通过 64输入-64输出的 8-bit Crossbar 实现高性能数据聚合;
  • 每 lane 上的 Crossbar 可用于生成 4 个 INT8 数据;
  • 关键用于高效支持池化、深度卷积等结构重排密集型算子

4. 动态流水线(Dynamic Pipeline):fHK快充网络

  • 用于高效执行 RQ/DQ 操作:
    • 举例:INT32 → FP32 → 乘以 scale(FP32)→ 加 zero-point(FP32)→ 转 INT8;
    • 通过不同 eu_cmd 配置流水线结构,实现一周期完成复杂操作;
    • EU 对 DQ/RQ 提供了专用加速指令,支持动态数据流;
    • 数据前传避免数据冒险,减少指令延迟;
    • 指令融合降低指令数量与总执行时间
  • 动态流水线的好处:
    • 单条指令比多条单指令更简单;
    • 融合后性能提升约 40%;
    • 中间数据不写入 SRAM,经测试功耗下降 2/3;
    • 提高指令密度与执行效率
  • 图 13~16 展示了动态流水线的实现方式

C. HAU(硬件加速单元)

作者在设计的 HAU 中提出了 SORT(排序)NMS(非极大值抑制)GDE(数据聚合引擎)三个模块fHK快充网络

  • 由于排序仅涉及矢量计算,而不涉及 TPU 擅长的矩阵乘法或卷积运算,因此在 HAU 中为其单独设计了一个运算加速器
  • 支持的数据类型包括 INT32、UINT32 和 FP32
  • SORT 支持升序/降序、索引排序、TopK 操作,数据可存储于全局内存或 L2 缓存中
  • GDE 根据索引值,从源数据中收集符合条件的数据,并输出至目标数据中
  • NMS 模块实现了非极大值抑制算法的后半部分(前半部分可由 TPU 完成并作为输入提供)。支持两种形式:
    • 硬 NMS(Hard-NMS):
      • 输入为 N×N 的掩码表;
      • 表中每项为 INT8,1 表示 IoU(交并比)小于阈值或表示自身;
      • 掩码表示意如 Table I 所示
    • 软 NMS(Soft-NMS):
      • 输入为 N×N 的衰减系数表(FP32),表示两个候选框之间的衰减程度;
      • 根据最大分数决定保留框,并更新其余分数;
      • 若有多个最大值,则取地址最小者;
      • 更新后继续查找下一最大值,直到满足结束条件;
      • 掩码表示如 Table II 所示

D. GDMA(通用 DMA)

  • GDMA 是 TPU 与 DRAM 之间进行数据搬运的重要模块,也支持:
    • DRAM↔TPU
    • DRAM↔DRAM
    • TPU↔TPU 的数据传输
  • 典型运算流程如下:
    • 使用 GDMA 将计算所需数据从 DRAM 搬入 TPU 内存;
    • 启动 TPU 执行计算,结果保存在 TPU 内存;
    • 再次启动 GDMA,将结果写回 DRAM
  • 为什么不用传统 DMA?
    • 传统 DMA 功能简单,仅支持块状数据搬运,无法满足 AI 算法的性能与灵活性需求
    • 而 AI 模型处理的是高维张量(如 2D/3D/4D),常需要搬运张量的切片,而非连续数据
    • 传统方案的问题包括:
      • 需要多次控制启动 DMA,增加开销;
      • 使用链表 + 描述符方式虽略好,但仍需较多控制数据,开销可能比传输数据还大,浪费带宽
  • BM1684X 设计了支持至多4 维张量(N, C, H, W)的 GDMA 指令,
    • 支持以下操作:
      • 常规搬运
      • NC 维转置搬运
      • 常数填充
      • 广播复制等操作
    • 相比传统 DMA,效率显著提升:
      • 示例:传统 DMA 传输 channel 维度为 64 的张量需 64 条指令,GDMA 一条指令搞定;
      • CNN 等模型中常将数据连续排布,但因 SRAM 容量有限,编译器需切片处理,GDMA 可一次传输张量片段,传统 DMA 无法实现
    • GDMA 还支持更多高级操作
    • Non-Zero、Mask-Select、Scatter/Gather 等张量运算(在预处理中常见);
    • 这些不是典型 SIMD 操作,TPU 内支持有限;
    • 在 GDMA 中实现有三大优势:
      • 边搬运边计算,减少传输数据量;
      • 硬件效率高,避免异构计算下的缓存刷新等开销;
      • 编程模型灵活,不依赖 TPU 特定结构
  • GDMA 支持 TPU↔TPU 直接通信:
    • TPU 的 SRAM 仅支持本 lane 操作,GDMA 可跨 lane操作;
    • 为多核 TPU 设计保留该能力,支持未来的多核协同场景,以双核为例:
      • 核 1 做目标检测,核 2 做特征提取;
      • batch size=1 时并行跑同一模型,加速推理;
      • batch size 大时做 tensor 并行,共享 DRAM 减少访问;
      • 某层计算量过大时,按层切分由多核联合计算
GDMA 的高效设计有助于 AI 加速器实现高性能、低功耗、去中心化的数据搬运,提升整体系统效率

E. TPU 子系统的编程模型

  • BM1684X 的 TPU 子系统支持两种运行模式:
    • PIO 模式(Programmed I/O):编程式运行,指令由 AP Lite 控制器直接执行
      • TPU 指令被编译为 AP Lite 专用二进制文件
      • AP Lite 运行时动态生成 TPU/GDMA/HAU 的指令,并分发至对应模块;
      • 每个模块有独立指令队列,并行取指并执行,提升资源利用率;
      • AP Lite 也具备标量计算能力,可访问 DDR、L2 和本地内存,协调计算与数据调度
    • DESC 模式(Descriptor):描述符驱动,预定义任务序列,适合动态任务
      • 程序调用 TPU 内置接口时会生成 TPU 与 GDMA 指令
      • 这些指令保存为二进制描述符文件,写入设备的 DDR
      • TPU 子系统直接从 DDR 中读取并执行这些指令序列

4 工具链

  • BM1684X 架构的发布伴随着一套前沿工具链的推出——TPU-MLIR(张量处理器多层中间表示工具链)。这款新一代 TPU 工具链不仅保持了对前代系统的向后兼容性,同时还整合了一系列全新的功能特性。
  • 跨框架支持能力
    • TPU-MLIR 的一个核心特点是:它可以无缝支持多种主流神经网络框架,包括:
      • PyTorch
      • ONNX
      • TensorFlow
      • PaddlePaddle
      • 及其他框架
    • 这种“全框架兼容性”设计,确保了不论底层使用哪个框架,处理流程都保持一致,从而实现统一、流畅的开发体验
  • 分层设计:TOP 层 + TPU 层
    • TPU-MLIR 工具链采用分层架构,将神经网络模型抽象为两个层次:
      • TOP 层:处理与芯片无关的操作(通用),包括图优化、量化、推理
      • TPU 层:处理与芯片相关的操作(定制),如权重重排、算子切分、地址分配等
    • 模型转换流程如图 17所示,模型会经过多个 Pass 转换,逐步变为最终的指令格式。下面是各 Pass 的作用:
        • TOP 层 Pass 列表:
          • shape-infer:推断各算子的张量形状(包括常量折叠);
          • canonicalize:对计算图进行简化优化,如将 ReLU 融合进 Conv、形状合并等;
          • extra-optimize:执行额外优化,如 FLOPs 计算、无效输出移除等;
          • processor-assign:指定所用处理器(如 BM1684X);
          • import-calibration-table:根据校准表为每个算子插入 min/max 值,便于后续量化;对称量化时插入 threshold;
          • processor-top-optimize:处理器相关的 TOP 层优化;
          • convert-top-to-tpu:将 TOP 层下沉为 TPU 层:若数据为浮点类型,直接转为 TPU 层对应算子;若为 INT8 类型,则需进行量化转换
        • TPU 层 Pass 列表:
          • canonicalize:TPU 层图优化,如连续 requantization 的合并;
          • strip-io-quant:判断输入/输出是否为量化类型,否则默认为 FP32;
          • processor-tpu-optimize:处理器相关 TPU 层优化;
          • weight-reorder:根据硬件特性重排权重(如卷积的 filter 和 bias);
          • subnet-divide:根据运行平台划分子网络(若全算子运行在 TPU,仅有一个子图);
          • op-reorder:调整算子执行顺序(如注意力机制的特殊处理);
          • layer-group:将尽可能多的算子划分为可在本地内存连续执行的子区段;
          • address-assign:为需要使用全局内存的算子分配地址;
          • codegen:调用各算子的 codegen 接口,生成指令缓冲区;
          • builder:将最终模型生成为 FlatBuffers 格式文件
  • 精度验证与正确性保障
    • 为了确保 TPU-MLIR 工具链的可靠性,采用了逐层比对验证机制:
比对项 验证内容
TOP 层 ↔ ONNX 比较推理输出是否一致
TPU 层 ↔ TOP 层 检查 TPU 特定算子是否保持精度一致
TPU 层 ↔ C 模型仿真 最终硬件指令结果与软件模拟是否一致
    • 这种比对策略确保了从高层模型到底层芯片指令的精度传递与正确执行
    • TPU-MLIR 工具链的一大优势是:每一次模型转换都会输出对应的 MLIR 表达。这使得整个模型转换过程具有良好的可追踪性与可调试性,极大提升了开发效率与透明度

结论和经验教训

本文介绍了由 SOPHGO 开发的先进 AI 处理器 BM1684X,该处理器旨在满足各类 AI 应用中多样化的需求。fHK快充网络

BM1684X 的 TPU 采用了 超大数据宽度的 SIMD 架构,用于降低指令单元的面积比例,并提升计算密度。执行单元(EU)内的 定制加速指令 支持 动态流水线执行,从而减少指令总数与执行时间,显著提升了 TPU 在 RQ(量化)和 DQ(去量化)操作中的性能。TPU 内部的 CUBE 阵列 可在特征图的通道维上同时执行 64 对 INT8 操作数的乘加运算。通过采用加法树而非传统加法器,实现了显著的面积与功耗优化,从而提升了 TPU 的能效。BM1684X 在每条执行通道内部还集成了一个 64 输入-64 输出的 8-bit crossbar,用于高性能数据聚合,进一步加强了 TPU 架构内部的数据处理能力。该芯片还提供三种内存访问模式,以展现其在满足不同 AI 处理需求方面的灵活性,同时优化了在不同任务与负载下的 DRAM 利用效率。同时还设计了配套的 TPU-MLIR 工具链,其特点包括:多框架统一处理,模型抽象的分层设计,转换步骤的正确性验证以及全过程的可追溯性。fHK快充网络

BM1684X 在包括大模型在内的各类 AI 模型上均展现出卓越的高性能计算能力。通过与业界领先芯片的全面评估对比,验证了 BM1684X 在面对复杂、苛刻 AI 工作负载时所具备的高效处理能力。本处理器的 算力利用率 / 计算效率 高于 Nvidia Jetson 中使用的 GPGPU + NVDLA 架构。对于 CNN 网络(如 ResNet50),其核心算子是卷积,Jetson 不具备专门支持卷积的电路,而是通过 IMG2COL(图像转列) 方式将图像展开为矩阵进行计算,这种方式效率不高;相比之下,TPU 具备专门支持卷积操作的电路,因此在相同算力与 DRAM 带宽下,性能更优。对于Transformer 网络(如 BERT),此类模型中算子结构较为简单,在此类网络中,本文提出的 TPU 与 Nvidia Jetson 的性能表现相当fHK快充网络

fHK快充网络

 fHK快充网络

来顶一下
返回首页
返回首页
发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表
推荐资讯
相关文章
    无相关信息
栏目更新
栏目热门