已经举办
分类筛选 | 重置筛选条件 |
---|
AI 应用带来了广泛的神经网络加速需求,并对相关器件的性能、功耗和性价比提出了很高的要求,从而产生了丰富的 AI 芯片实现方式。相较于 GPU、FPGA 和通用 CPU,采用专用神经网络加速器(NPU)和矢量数字信号处理器(VDSP)的 SoC 能够以更低的系统功耗运转 AI 程序。
本次研讨会,我们将重点讲述 DSP 向 AI 专用加速器 NPU 的持续演变,探讨 AI 产业发展的大趋势,包括 Transformer 模型备受关注的准确性,选择 DSP 或 AI 专用加速器之间的权衡。我们还将讨论如何借助 ARC VPX DSP、加速器或者新思科技最新的 NPU 去实现人工智能芯片的设计,并介绍软件支持对一款 AI 芯片的重要性。