INTRODUCTION

简介

随着人工智能和物联网技术的快速发展,物联网设备已深入到人们的社会生活当中,应用十分广泛。“边缘智能”这一概念应运而生。基于边缘计算这一新型的计算模式,边缘智能在更加靠近用户和数据源头的网络边缘侧这一位置训练和部署深度学习模型,从而改善AI应用的性能、成本和隐私性。智能物联网设备大规模的部署也带来了包括视频信息在内的数据爆炸的问题。未来几年,全球范围内链接的物联网终端设备数量将突破上百亿至千亿台。物联网系统通常采用电池或环境能量采集系统供电,并且物联网系统通常是多传感器节点系统,对能量供给系统工作时间要求较高。然而,近几十年来电池能量密度的增长十分缓慢,远远跟不上视觉信息感知应用爆炸式增长的速度。因此快速的传感数据处理需求增长与缓慢的能源技术发展构成了智能感知终端处理的主要矛盾,而发展高能效集成感知处理技术是解决这一主要矛盾的关键。

模拟计算提供了终极的内存计算处理元素。术语“存内计算”的使用非常广泛,可能意味着许多事情。我们的模拟计算将内存计算推向了极致,我们直接在内存阵列内部进行计算。这可以通过将存储器元件用作可调谐电阻器,将输入作为电压提供,并将输出收集为电流来实现。我们使用模拟计算进行核心神经网络矩阵运算,我们将输入向量乘以权重矩阵。

 

模拟计算为我们做了几件事。首先,它非常高效;它消除了神经网络权重的内存移动,因为它们被用作电阻器。二是高性能;当我们执行其中一个向量运算时,有成千上万的乘法累加运算并行发生。鉴于这两个特性,模拟计算是我们高性能但高效的系统的核心。

当今最常见的计算架构是建立在关于如何访问和使用内存的假设之上的。这些系统假设完整的内存空间太大,无法在处理器附近的芯片上安装,并且我们不知道在什么时间需要什么内存。为了解决空间问题和不确定性问题,这些架构构建了内存层次结构。

 

内存计算是使用不同的假设构建的:我们有大量需要访问的数据,但我们确切地知道何时需要它。这些假设对于AI推理应用程序是可能的,因为神经网络的执行流是确定性的 - 它不像许多其他应用程序那样依赖于输入数据。利用这些知识,我们可以战略性地控制数据在内存中的位置,而不是构建缓存层次结构来弥补我们缺乏知识的情况。存内计算还会将本地计算添加到每个内存阵列,允许它直接在每个内存旁边处理数据。

每刻深思架构下,通过对模拟域的信息与处理,加上对信息的压缩,可以大大降低功耗和运算效率。

 

• 将部分数字信号处理(DSP)任务前置预处理,精简处理信息;

• ADC被移到模拟计算模块之后,仅在有效需求时被唤醒,降低无效功耗;

• 原始信号中不必要的信息已被去除,主芯片只需计算精简信息,提高计算效率;  

• 采用与传感器深度融合的模拟域计算技术,充分利用模拟计算的高能效特性以及感知算法的容错性,在模拟域进行信息提取和筛选,减轻后级系统的处理复杂度,以此降低系统的处理能耗。

从长远来看,每刻深思设想了一套强大工具软件,以帮助开发人员评估权衡以及与快速发展的深度神经网络世界的良好兼容性。与其他平台相比,每刻深思的平台和模拟计算技术提供了完整的确定性执行和巨大的灵活性,可以进行权衡。我们相信,最好的软件平台提供了自动工具,用于探索精度,模型大小和修剪,性能和功率的设计空间。这使开发人员能够在功耗和成本的限制下快速确定最佳解决方案。

我们还认为,最好的软件平台应该是模块化的,并且很容易与流行的工具集成。随着新的新技术的发展,软件和硬件支持会越来越简单通用。我们的平台通过软件的模块化设计确保了这一点,利用了大量的通用矩阵计算功能,而不是特定于架构的加速器。总而言之,我们对软件的愿景和路线图确保选择每刻深思作为平台将是未来许多年的有效选择。