专注喷码标识整体解决方案18年!
TEL:400-678-0306
公司新闻

公司新闻

成都林仕工业喷印技术有限公司
电话:028-85082907/85087937
地址:成都市武侯工业园武兴二路17号力德时代13A

昆明分公司
电话:0871-63585073/63585126
地址:昆明市人民东路398号A603室

贵阳分公司
电话:0851-86523706
地址:贵阳市北京路鲤鱼西巷13号

当前位置: 主页 > 新闻中心 > 公司新闻 >

公司新闻

华人小伙瑞士创业,打造类脑芯片,要将功耗降低千倍!

时间:2019-06-04来源:未知浏览次数:

眼下对于这家类脑芯片公司而言,场景落地是最为重要的一环。

撰文 | 寓扬

「如果把当下最为成熟的移动芯片比作一个青壮年人,那么类脑芯片还只是一个2~3岁的孩子。」

这意味着类脑芯片还远不成熟,也意味着它可能在未来具有更大的潜力。放眼行业,推出类脑芯片的公司少之又少,即使是IBM与英特尔推出了类脑芯片,更多的还是科研导向,商业落地无从谈起。

一位华人小伙在瑞士攻读博士后期间,机缘巧合踏入这片神秘的土地,进而创业进军类脑芯片,要将这个2~3岁的「孩子」和场景结合,踏上未知的落地应用之路。

他就是aiCTX公司CEO乔宁博士。CTX是Cortex(脑皮层)的缩写,公司的名字代表着他希望将AI和脑皮层技术相结合,解决实际应用中的问题。

aiCTX CEO乔宁

今年4月份,aiCTX推出它的第一款类脑处理器芯片DynapCNN,但这款更多的还是一款测试芯片,验证技术上的可能性。乔宁说,公司有望在今年第四季度推出真正可量产的类脑芯片,现在正处在商业落地爬坡期。

他还透露,未来将要推出一款端侧智能视觉SoC,相比传统的端侧AI芯片,功耗会降低100~1000倍,延时响应缩短10倍。

关于类脑芯片的可行性行业一直存在争议,它究竟是科研人的「象牙塔」,还是能经受市场考验的璞玉,落地之战可谓关键。

1 华人小伙瑞士创业,进军类脑芯片

乔宁原本是中科院半导体研究所的博士,2012年毕业后希望去国外攻读博士后,继续从事芯片领域的科研工作。后来机缘之下,他来到瑞士苏黎世大学及苏黎世联邦理工大学神经信息研究所,从事类脑芯片的基础科研与工程研发。该研究所由两所大学联合创办,有20多年成熟的脑科学、神经形态架构、算法、芯片等方向的研发经验。

2015年IBM推出类脑芯片TrueNorth,让业界开始对类脑技术有更多的认知,随后AlphaGo的异军突起让大家对AI有了全新的认知。这些事情也触动着乔宁,希望借着AI的东风,真正将类脑技术落地商用。

正是如此,2017年3月乔宁等人在瑞士创办aiCTX公司,面向端侧IoT场景,研发可商用的神经形态处理器(即类脑芯片)。

目前aiCTX有一个约15人的全职团队,可谓小而精。乔宁任CEO,有超过10年的芯片设计经验;神经信息研究所所长Giacomo Indiveri教授担任CSO,他可谓是世界神经形态科研领军人物;此外董事长Kynan Eng教授在视觉处理器领域有非常深厚的积淀,15人的团队均来自于苏黎世大学、苏黎世联邦理工、洛桑联邦理工等世界顶级高校,专业涉及硬件设计、算法、软件等各个层面。

乔宁向机器之心透露,瑞士团队主要负责芯片研发和IP设计,未来希望在中国建立一个团队,承担系统级方案设计、芯片规模量产以及市场对接工作,这一团队有望在今年年底建立。

aiCTX目前主要聚焦两大业务方向,一块是以动态摄像头为输入的毫瓦级低功耗、低延时的实时动态图像处理应用,主要面向智能家居、机器人、自动驾驶及安防场景;另一块是面向便携、可穿戴设备的口令识别、心电信号等自然信号的微瓦级超低功耗实时处理。

据了解,2017年底aiCTX获得十维资本领投的120万美元天使轮融资,2018年底又获得百度风投领投的数百万美元Pre-A轮融资,目前其也在寻求A轮融资。

2 功耗降低千倍 类脑芯片是如何实现的?

aiCTX的类脑芯片落地步伐可分为两步:从测试芯片走向量产芯片,从专用芯片走向通用芯片。

今年4月份,aiCTX推出了公司的第一款类脑芯片DynapCNN,它是一款视觉AI处理器,芯片面积仅为12平方毫米,采用22nm工艺设计,单芯片集成超过100万脉冲神经元和400万可编程参数,支持多种CNN架构,并具有较为灵活的扩展性。

乔宁表示,DynapCNN处理器很适合应用在轻中量级的端侧动态视觉上,具有实时响应与超低功耗的特性。通过搭载直连动态视觉摄像头,它可以对像素级动态数据流进行连续计算,以自动驾驶路面障碍物识别为例,它对物体实时识别可实现低于5ms的延迟,峰值功耗仅为100mW(毫瓦)。

同样的端侧场景,相比已有的深度学习视觉处理方案,乔宁自信地称,DynapCNN可以将识别响应时延缩短10倍,同时功耗降低100~1000倍。

为何会有如此大的提升?这首先要从类脑芯片的底层架构说起。在传统的冯·诺依曼架构中,计算模块和存储单元互相分离,CPU在执行命令时必须先从存储单元中读取数据,这往往会消耗大量的计算资源,并带来大量的功耗;再加上由于「内存墙」(数据存取速度赶不上计算速度)的存在,这往往又会造成更高的时延问题。

而类脑芯片则「颠覆」了这一传统计算架构,它模拟人脑神经元的方式来进行运算。人脑的特性是存算一体,拥有成百上千亿的神经元可进行大规模计算,在处理任务时具有极高的并行度,并且功耗极低。

正是对人脑的借鉴才有了脉冲神经网络,类脑芯片也采用存算一体的结构,将数字处理器当做神经元,接受脉冲信号后,每个神经元在本地展开运算。

乔宁解释道,类脑芯片最天然的属性是事件驱动运算,以动态摄像头应用为例,输入端是一个很稀疏的数据,只有事件触发才展开运算,当没有事件触发时,机器就不需要运算,这样就大大降低了功耗;另外类脑芯片没有帧的概念,所做的是连续运算,当数据流进来后无需存储,实时处理,这样又做到超低延迟。

另外,每一家做类脑芯片的公司总会宣称自己的芯片有上百万神经元,乔宁说百万神经元是类脑的界限(蜜蜂大脑包含大概一百万神经元),但对于传统的深度学习来说,其实能做的事情还很少,只能做一些简单的手势识别、口令唤醒、避障等任务,因为深度学习是一个非常消耗资源的解决方案。

他也坦言,DynapCNN并不是一款量产芯片,而是一款测试芯片。作为公司的第一款芯片,首先需要对设计工具、设计流程等进行系统级的验证,其次需要对算法层面进行验证。并且,DynapCNN需要外接动态摄像头来完成任务。真正面向商用的集成动态摄像头及处理器与单芯片的SoC级神经形态智能传感器Speck预计将在今年第四季度推出。

另外,这是一款可编程可配置的CNN架构芯片,主要面向视觉AI场景,由于更多出于测试及通用性考虑,做了很多冗余算力,所以并没有特别定义的落地场景。aiCTX希望它能够直联通动态摄像头,来做一些端侧超低功耗的任务,比如近距离的手势识别、自动驾驶的避障等。

「严格来说这款芯片不算真正意义的类脑芯片,它是用类脑的逻辑来解决传统CNN的问题」,乔宁解释道。在他看来,真正意义的类脑芯片,是从硬件架构、算法都按照类脑的逻辑来设计。

此外,aiCTX也在采用脉冲神经网络(SNN)打造一款通用芯片DynapSE2,它可处理口令识别、心电信号监测等自然信号处理,同样具有实时处理、超低功耗的特性,这款小规模量产芯片的样片可在今年三季度获取。

3 最快第四季度商业量产

场景落地已成为aiCTX目前最为重要的一环。

乔宁透露,针对视觉场景,他们正在打造一款面向商用的SoC芯片——Speck,这款SoC包含动态摄像头模块及片上AI处理器模块,提供一个不依赖于云的本地视觉AI运算的完整的解决方案。Speck是一款集成动态摄像头与AI处理器模块于一体的亚毫瓦智能视觉传感器,AI运算依然采用类脑的硬件逻辑和CNN算法相结合来解决实际问题,由于高度可配置性,可针对不同场景,载入不同网络解决实际问题。

Speck芯片主要针对轻量级视觉场景,可应用在智能家居、智能汽车、机器人、仓库AGV等场景下。在智能家居场景中,可实现家庭成员识别、手势识别、姿态识别等人机交互应用,一节纽扣电池就可以使用很长时间。

再比如汽车场景中,Speck可以进行手势识别,从而实现车内的一些交互。乔宁称, 传统的加速器解决方案,可能每秒处理20帧,这对应的是50ms的延迟,而Speck可以做到更快地实时响应,仅需要5ms的延迟。同样相比传统的深度学习计算,它的整体(摄像头及处理器)峰值功耗仅为1mW,比传统方案降低100~1000倍。

在小区安防方面,传统的解决方案很难做到高速、低延迟、低功耗的统一,而Speck在这方面就有一定优势。此外,野外、鱼塘、铁路、边界等这类需要节省功耗、节省带宽的场景,都可能是类脑芯片的用武之地。

乔宁透露,目前Speck智能视觉传感器已经在跟国内Tier 1汽车零部件供应商、机器人、安防公司,以及欧洲的IoT公司在做一些场景验证,正处在市场对接阶段。这款芯片目前也在设计阶段,预计会在今年7月投片,有望在今年年底或者明年初量产。

在类脑芯片这一领域,IBM曾推出TrueNorth芯片,英特尔曾推出Loihi芯片,面对这些巨头公司aiCTX的芯片又有什么优势呢?

乔宁坦言,如果比拼团队、拼资源,定然比不过这些巨头公司。但IBM、英特尔更多的是采用通用架构做基础研究,它是一款科研芯片,不针对一个具体场景。而aiCTX更多针对一个明确的应用场景去落地,因而在功耗,性能以及集成度方面会有更大提升。

4 场景落地已是最为关键一环

但类脑芯片还远不成熟,如果将最为成熟的智能手机芯片比作青壮年,那么类脑芯片还只是一个2~3岁的孩子,行业还处于很早期。

那么类脑芯片距离真正可用还要多久呢?乔宁认为要结合场景来看,视觉物联网端的Speck智能视觉传感器很可能年内落地。在自然信号处理端的应用,如果只是做个相对简单的口令识别/唤醒、手势识别、心电信号监测等,可能明年年中就可以实现。但如果你想让类脑芯片做语义理解、复杂的决策,像人一样明白一句话,则还有很长的路要走。

但目前aiCTX并没有一款真正意义上的落地商用芯片,能否完成场景验证,能否通过市场的考验当下还是一个未知数。对他们来说,场景落地是当下最为重要的一环。乔宁也说,未来1~2年工作的重心会落到动态视觉上。

而从科研的角度来说,行业当下最需要的就是搭建生态。类脑芯片还有很长的路要走,最为核心的是找到一套更加适合类脑芯片架构的算法,从而去提升精度,降低功耗,而非用目前的CNN算法。