ICDIA 2023“AIoT与ChatGPT”专题论坛举行,爱芯元智正式公布混合精度NPU官方名称“爱芯通元”

2023-07-18 15:21:00 hao333 1170

7月13日至14日,第三届中国集成电路设计创新大会暨无锡IC应用博览会(ICDIA 2023)举行。在“AIoT与ChatGPT”专题论坛上,爱芯元智联合创始人、副总裁刘建伟受邀做《爱芯元智AX650N Transformer端边落地平台》主题演讲,正式公布了企业核心技术混合精度NPU的中文名“爱芯通元”,并介绍了第三代SoC芯片AX650N在端侧、边缘侧部署Transformer的领先优势。

ICDIA 2023“AIoT与ChatGPT”专题论坛举行,爱芯元智正式公布混合精度NPU官方名称“爱芯通元”

爱芯元智混合精度NPU中文名,“爱芯通元”正式公布

近年来,AIoT行业规模快速成长,不仅是各大传统行业智能化升级的最佳通道,也是未来物联网发展的重要方向。同时,自2022年底发布以来,以ChatGPT为代表的大模型引发国内外科技巨头的纷纷布局,人工智能发展也进入了一个全新的时代。可以看到,伴随着AIoT以及AI大模型的快速发展,底层硬件的数据存储、计算性能、图形处理能力都面临着极高的要求。

在爱芯元智看来,大模型具有通识能力,能够降低人工智能在场景落地的成本,而未来,每一个人都可能在终端拥有一个智能助手。在人工智能发展的过程中,爱芯元智提供的则是芯片基建,即通过人工智能芯片提供感知与计算的基础能力,助力AI在端侧边缘侧的落地。

感知层面,爱芯元智致力于让摄像头看得更清,从而打造物理世界数字化的入口;计算层面,爱芯元智致力于让摄像头看得懂,将为各种AI模型在端侧和边缘侧的落地提供更高的算力基础。本次ICDIA 2023现场,爱芯元智也正式公布了混合精度NPU的官方中文名“爱芯通元”,意在为各种智能算法提供基本算力支撑,让智能在端侧和边缘侧对世界产生更深入的理解,助力更美好的生活。

定位人工智能感知与边缘计算基础算力平台,爱芯元智自2019年成立以来便聚焦感知与计算基础能力,自主研发了爱芯智眸AI-ISP和爱芯通元混合精度NPU两大核心技术,后者通过减少内存墙和功耗墙的阻碍,在端侧边缘侧面积、功耗受限的情况下,以更高的有效算力支持更多的智能算法,降低AI部署成本。

目前,爱芯元智已完成四代多颗芯片产品的研发和量产工作,并逐渐落地智慧城市、智能驾驶和AIoT三大市场。“这些市场都将感知和计算作为基本能力,这也是爱芯元智选择不同市场的逻辑”,刘建伟表示。

高性能、高精度、易部署,爱芯元智AX650N成Transformer最佳落地平台

在AI芯片设计开发时,爱芯元智高度重视应用、算法与NPU的深度结合。应用方面,爱芯元智通过数据流优化、前后级处理加速来实现更高的性能;算法方面,爱芯元智会通过算子加速、网络微结构加速、内存优化等设计,从算法的角度来提高硬件的利用率;同时,爱芯通元混合精度NPU是一个异构多核系统,并且内置多核硬件调度机制减少对CPU的占用,让系统应用跑得更快。

基于应用、算法与NPU联合优化的设计理念,爱芯元智推出的边缘侧、端侧人工智能处理器芯片均具有高性能、低功耗等优势,其第三代高算力、高能效比SoC芯片AX650N更成为Transformer最佳落地平台。

实测数据显示,爱芯元智AX650N不仅在传统的CNN网络上性能优异,在端侧部署Transformer网络SwinT也表现出色,实现了361FPS的高性能、80.45%的高精度、199 FPS/W的低功耗以及原版模型且PTQ量化的极易部署能力。同时,AX650N还支持低比特混合精度,用户如果采用INT4,可以极大地减少内存和带宽占用率,从而有效控制端侧边缘侧部署的成本。

目前,爱芯元智AX650N已适配ViT/DeiT、Swin/SwinV2、DETR等Transformer模型,最先进的计算机视觉自监督模型DINOv2也在AX650N上达到了30帧以上的运行结果。为了帮助开发者对Transformer做更好的落地尝试,爱芯元智还推出了基于AX650N的面向生态社区和行业应用的开发套件“爱芯派Pro”,助力探索更丰富的产品应用。

面对大模型掀起的新一轮AI热潮,爱芯元智AX650N也将针对Transformer结构进行进一步优化,并且将探索多模态方向的Transformer模型。爱芯元智希望通过感知和计算核心技术,加速端侧边缘侧智能落地,真正实现普惠AI,让人们的生活更加美好。