新闻中心

EEPW首页 > 智能计算 > 专题 > 支持广泛神经网络架构的VIP8000处理器

支持广泛神经网络架构的VIP8000处理器

—— 嵌入式神经引擎和专用智能处理器将AI引入前端设备
作者:时间:2018-05-04来源:电子产品世界收藏

作者/产品开发副总裁 林尙宏

本文引用地址:http://www.amcfsurvey.com/article/201805/379453.htm

和神经网络处理技术承载着嵌入式处理器下一个主要的市场机会。国际数据公司(IDC)预测,全球在人工智能和方面的支出将从2016年的80亿美元增长到2020年的470亿美元。AI爆发式增长的背后有三个主要的驱动力:算法的快速演进、强大的技术平台以及大数据。AI日益无处不在,这就要求消费电子、汽车电子、工业4.0等终端产品具备实时神经网络推理、可灵活升级至最新最优算法,以及从持续学习中收集有用信息的能力。

是一家芯片设计平台及服务(Silicon Platform as a Service,SiPaaS®)提供商,为包含移动互联设备、数据中心、物联网(IoT)、汽车、工业和医疗设备在内的广泛终端市场提供全面的系统级芯片(SoC)和系统级封装(SiP)解决方案。和人工智能技术已经全面布局智慧设备的未来发展。基于SiPaaS服务理念,芯原助力客户在设计和研发阶段领先一步,从而专注于差异化等核心竞争优势。芯原一站式端到端的解决方案则能够在短时间内打造出从定义到测试封装完成的半导体产品。宽泛灵活的SiPaaS解决方案为客户带去高效经济的半导体产品替代解决方案。

芯原还提供广泛且多样的处理器IP,如GPU、DSP、显示控制IP、ISP、视频CODEC,以及神经网络处理器IP等。其中,VIP8000神经网络处理器达到了业界最高的推理性能和能效水平,是目前市面上最为可扩展的神经网络处理平台。该神经网络引擎运算速度范围可从0.5到72万亿次运行/秒(TeraOPS) ,在16nm工艺制程下功率效率可达10万亿次运行/瓦。随着最新的分级压缩、适配的平铺/缓存、裁剪、获取跳过以及图像融合技术的引用,VIP8000为与其相关的处理器架构进一步降低了内存带宽需求。新一代神经网络引擎IP的推出,使得芯原成为这类应用市场发展的重要推力。从永不断电的电池驱动类IoT客户端到AI服务器集群,性能领先业界的VIP8000处理器将持续扩大其应用空间。

VIP8000不仅优于所有传统的DSP、GPU,以及CPU混合系统,还通过了业界验证,于1年半以前便授权给用户使用。2017年,10家主要的ASIC设计厂商在通过评估各类IP和SoC解决方案、并进行严格的性能筛选后,最终选择了采用VIP产品。芯原已将此类IP成功授权给ADAS、自动驾驶、安全监控、家庭娱乐和服务器专用ASIC等厂商。

VIP8000支持宽泛的神经网络架构,如TensorFlow、Caffe、AndroidNN、AmazonMachine Learning、ONNX、NNEF、AlexNet、VGG16、GoogLeNet、Yolo、Faster R-CNN、MobileNet、SqueezeNet、ResNet、RNN和LSTM等,此外,还提供大量软件和硬件解决方案以帮助开发者创建高性能神经网络模型和基于机器学习的应用。由于与Vivante GPU架构相同,VIP8000继承了其OpenCL可编程性,硬件直接存储器存取和时序安排,以及多环境并行处理的长处。

对于终端设备来说,有些AI应用并不是孤立的应用,而是可以同时增强现有的许多不同应用。作为芯原Vivante IP产品系列的一部分,VIP8000处理器可以在兼顾芯片尺寸和功耗的情况下,轻松地与其他芯原处理器IP相集成。例如,基于共同的架构,VIP8000神经网络引擎可以和任何Vivante GPU直接集成以面向AR/VR等应用;还可以与芯原的ZSP音频DSP集成以面向智能音箱的应用;或是与ISP Nano集成实现低延迟机器视觉摄像头的设计;又或是与Hantro视屏编码相结合以实现更好的视频内容压缩。

AI已经无处不在。基于正在专利申请中的神经网络压缩技术,VIP8000系列产品可帮助设计者快速交付采用AI技术的嵌入式产品,我们已经和从嵌入式产品到服务器应用的各个领先厂商展开了深度合作。应用和算法都在快速演进,芯原的AI技术与公司其他广泛的IP组合将为客户带去突破性的解决方案,以加速AI技术实现其产业价值。



评论


相关推荐

技术专区

关闭