该行业已经到了一个拐点,模拟模式正在获得新的面貌,但数字模式不会轻易让位。
我们生活在一个由数字处理主导的模拟世界,但这种情况可能会改变。领域特异性,以及对更高层次优化的渴望,可能会为模拟计算提供一些显著的优势——以及卷土重来的可能性。
在过去的四十年里,数字规模化和灵活性的优势已经推动了两者之间的分界线模拟数码更接近周边。今天,这些转换通常在传感器和执行器中或非常接近传感器和执行器。通信一直是一种抗拒,因为渠道,无论是有线还是无线,都不默认数字的要求。
图1:20世纪60年代的Heathkit模拟计算机。来源:维基共享资源
但也出现了一些重大变化,包括:
“世界是模拟的,所以电路也将是模拟的,”特朗普高级混合信号自动化集团经理Benjamin Prautsch说弗劳恩霍夫IIS的自适应系统工程部。“有些类型的知识产权可以从数字辅助和全数字替代中显著受益。然而,由于模拟和数字之间的转换会产生限制,因此需要在系统级别上研究其效益。一个聪明的模拟电路可能比使用数字辅助的中等电路要好,但有很多因素和性能指标起作用。”
除了传感器和执行器之外,无线通信也变得越来越重要。“过去,一切都是联网的,”公司产品营销总监马克•斯温宁说有限元分析软件.“如今,每个物联网设备都需要无线连接。他们正在使用无线电通信,这正在创造越来越多的模拟和射频内容。此外,当你观察数字信号频率时,你会发现它们一直在上升。5GHz是一个神奇的数字,其中电感成为一个重要的玩家,甚至在芯片级别。然后,必须考虑电磁效应。如果你想要正确地分析这些数字信号,它们看起来非常相似。当你看2.5D和3D结构时,这是一个更大的问题,就芯片而言,你有非常高速的线路,可以延伸很长一段距离。”
工艺的进步
每增加一个节点,数字电路的性能特征都有所改善。面积减小,性能提高,功率减小,电容减小。然而,模拟情况并非如此。每个新节点通常与电压降低相关,这对模拟不利,因为它降低了噪声裕度。变化冲击模拟电路远不止数字化。finfet对模拟产生了限制。这样的例子不胜枚举。
这导致模拟必须做出妥协。“如果你在一个单一的芯片上制造所有的东西,比如12nm,那么模拟需要移动到相同的工艺节点,”Sumit Vishwakarma说西门子EDA.“你被迫失去模拟性能。在较低的技术节点上,模拟的性能开始下降,需要辅助。这就是为什么我们看到数字辅助模拟设计的涌入。”
当模拟和数字解耦,并采用适当的技术,模拟电路就不会受阻。Semtech信号完整性解决方案集团营销和应用副总裁Tim Vang表示:“我们可以设计模拟电路,在某些情况下提供与数字电路相同甚至更好的功能,而且我们可以在老式节点上做到这一点。”“成本可以更低,因为我们不需要所有的数字功能,所以模具尺寸可以更小。我们可以降低能耗,因为我们没有那么多的功能。”
模拟也可以利用更多的制造技术。Vang补充道:“从任何流程节点中获得的信息都是有限的,即使在模拟中也是如此。“如果你想使用CMOS,我们甚至可以在65nm上做事情。我们也使用其他工艺,如BiCMOS或硅锗。它们甚至更适合与光学连接。光学通常喜欢将信号表示为电流,而不是电压,而双极极非常擅长驱动这些电流。”
和chiplets获得更多的关注,做出这些技术决策会增加更多的灵活性。Mythic公司负责产品和业务开发的高级副总裁Tim Vehling说:“芯片方法,或者集成逻辑或功能的异构方法非常有意义。“理论上,模拟计算部分我们可以继续使用40nm或28nm。然后你可以把它与一个数字芯片相匹配,它有处理器,内存和I/ o,它可以是10nm的。它们可以被集成到一个单一的软件包或一个单一的堆叠架构中。随着芯片的出现,模拟设备的寿命更长了。”
这也为光学创造了优势。Vang说:“在IEEE和其他标准组织中,他们使用协同封装光学或板载光学等词,这都是为了使光学互连更接近交换机和cpu。”“这主要是为了节省用于驱动位于底盘前端的光学器件的电力。这些是目前使用的可插拔模块。高速下的功耗已经足够了,他们一直在推动模拟光学器件越来越接近电路板上的数字开关。我们认为这是一个巨大的机遇,它们将像芯片一样有效地向世界传输光学I/ o。”
延迟是一个性能指标,它给数字技术带来了困难。Vehling表示:“模拟引擎的运行速度只是数字引擎的一小部分。“我们在兆赫范围内运行,而不是千兆赫范围。由于数据移动,数字架构与延迟作斗争。在模拟解决方案中,权重是固定的,计算程序在元素内部。从延迟的角度来看,即使在兆赫范围内,我们也比数字架构更快。”
这对通信系统有很大的好处。Vang说:“信号基本上都有通过芯片的飞行时间。“没有从a到d的转换,数字处理,然后在另一端从d到a。解决方案本质上是零延迟,或接近于零延迟。如果你谈论的是从纽约到洛杉矶的互连,延迟不是那么重要,但如果你试图在数据中心内移动几米,节省的延迟是非常重要的。对于超级计算机用户来说,模拟有一些独特的优势:成本、功耗和延迟。”
从AI改变需求
数字世界是非常精确、可预测和确定的。这些要求对模拟环境不利,但这种情况正在改变。“对于人工智能,准确性取决于模型,”Vehling说。“根据他们选择的模型,准确性会发生变化。如果你选择一个更大的模型,它将有更好的精度。较小的模型精度较低。如果你选择不同的精度,你就会有不同的精度。如果你选择不同的分辨率,你的精度将会改变。如果你有一个不同的数据集,或者它经过了不同的训练,你的准确率就会改变。我们看到有人会修剪一个模型,因为他们想让它更适合。 If you prune it, you reduce the accuracy. There are many ways where the accuracy of a model for a given application can vary in a digital system — maybe not the same way that it varies in an analog system, but there’s definitely variability today. There are a wide range of variants in AI model accuracy in any situation, let alone digital versus analog.”
任何人工智能系统的核心都是乘法/累加函数(见图2)。西门子的Vishwakarma表示:“执行这些MAC操作所消耗的能量是巨大的。”“部分原因是神经网络有权重,这些权重需要保存在内存中。它们必须不断地访问内存,这是一项非常消耗能量的任务。如果你比较计算和数据传输的能力,它几乎是它的1/10。为了解决这个问题,公司和大学的研究人员正在研究模拟计算,将权重存储在闪存中。内存计算是一个常用的术语,其中权重存储在内存中。现在我只需要输入一些输入并得到一个输出,这基本上是这些权重与输入的乘法。”
图2:模拟电路实现MAC功能。来源:神话
还可以进行其他架构上的权衡。“你看尖峰神经网络用于检测基于时间的变化,然后可以组合部署,”Vehling说。“你可能会看到一个峰值神经网络被部署在传感器层面上,以检测变化或运动。一旦检测发生,您将转换到更详细或更精确的模型来识别对象。因此,你已经开始看到在行业中部署人工智能的分层方法。”
但也存在障碍。公司总裁兼首席执行官Mo Faisal表示:“原则上,全模拟解决方案应该更节能Movellus.“但在以数字为主的混合设计中,要实现模拟效率的承诺并不容易。对于大多数公司来说,模拟是具有挑战性的,因为它不能用更小的几何图形进行扩展,并且在产量、性能和可伸缩性方面令人失望。然而,模拟技术仍然显示出少数选择的前景和潜力。”
混合意味着转换器。“当你想把模拟基础设施插入数字世界时,你需要转换器,”Vishwakarma说。“输入端需要dac,输出端需要adc。这就是连接的方式模拟将适应数字世界,因为我们只需要模拟来解决计算密集型的MAC操作。但世界其他地方都是数字化的。”
这就是必须考虑系统级权衡的地方。弗劳恩霍夫的Prautsch说:“优化的模拟核心可以显著降低功耗和吞吐量,但它需要这些转换。”“转换是否会减少模拟替换的好处是一个系统级的决策,需要通过概念的建模和优化来分析。”
数字世界中的模拟
转换器的问题能被克服吗?Vehling说:“如果你能在模拟世界中进行数字工作,我们将比反过来更有效率。”“如果我们能够拥有一个原生模拟处理器,而不是将原生模拟信号从传感器中转换出来,而不是将其隐藏在数字处理器中,那将是最理想的。这将显著提高电源效率、性能和延迟。”
并非所有人都相信这是正确的方向。Ambiq首席技术官兼创始人Scott Hanson表示:“将计算相关功能转移到模拟领域绝对可以提供出色的性能和能源效率。”“几家创新创业公司已经在这里取得了出色的成绩,并发展了专业知识。然而,模拟计算的固有挑战(例如,较差的节点可伸缩性、较长的设计时间、跨不同计算问题的不灵活性等)使得这一领域只有少数非常专业的专家才能成功。”
相反,Hanson着眼于实现技术的持续改进,以及跨节点迁移设计相当容易的事实。“还有其他补充技术,如亚阈值和近阈值计算。流程节点扩展和子阈值和近阈值计算的结合为令人兴奋的新AI功能提供了巨大的空间,所有这些都没有基于模拟的计算的复杂性。简而言之,我们押注于数字计算。”
模拟训练
模拟要成为人工智能的主导引擎,它必须渗透到训练和推理中。“如果你可以从激光雷达传感器、雷达、CMOS图像传感器获取原始信号,而不是将其转换为数字信号,然后再返回,而是将原始输入输入到模拟阵列,那么收益将是巨大的,”Vehling说。“但你必须训练系统以模拟方式识别数据。这就是模拟计算机的未来,一个真正的模拟系统。与此同时,我们也受到了一些限制,不得不适应数字架构。”
我们必须克服一些挑战。西门子的Vishwakarma说:“模拟信号的挑战之一是,模拟信号的呈现方式没有限制。“人工智能擅长识别模式,但我们不能只是给它一个连续的信号。它需要被离散化和量化。为了训练一个模型,您迭代地更新权重,直到它确定为将用于推理的权重。然后我就可以把权重保存在非易失性存储器中。但是,我们不能改变模拟中的权重值,即闪存中的电阻器的值。一旦你装载了它们,它就在那里。如果你需要改变权重,你就需要随机存取存储器,比如DRAM,这就是我们的问题所在。”
结论
有些事情模拟比数字做得更好,但最大的问题是如何将它们集成起来,以便在系统级别上产生所需的收益。然而,每个子系统的异构实现技术所提供的潜在解耦可能会使模拟计算更容易被考虑用于越来越多的功能。这样他们就能以更低的成本提供更好的性能。
如果模拟计算真的变得更加普遍,新的内存技术很可能会被研究和开发,这将使模拟人工智能成为可能。它可以提供数量级的收益。或者引用马克·吐温的话:“模拟的消亡被过分夸大了。”
如果说Verilog是数字语言,那么Verilog- ams就是神经网络语言。
谢谢你的精彩总结
谢谢,非常好的总结,尽管很有启发性。