目前的实现只是触及了这项技术的表面,这就产生了一系列问题。
人工智能无处不在。有AI/ML芯片,AI正在被用于设计和制造芯片。
在AI/ML芯片方面,大型系统公司和初创公司正在努力实现数量级的性能提升。为了实现这一目标,设计团队正在添加cpu、gpu、tpu、dsp以及小型fpga和eFPGAs。他们还使用了可以被处理器从多个方向读取的小内存,以及更大的片内内存和到片外HBM2或GDDR6的高速连接。
这些芯片背后的驱动力是能够比过去更快地处理大量数据——在某些情况下,可以达到两到三个数量级。这需要大量的数据吞吐量,而这些芯片的架构使其在吞吐量或处理方面没有瓶颈。到目前为止,最大的挑战是保持这些处理元素足够繁忙,因为空闲的处理元素需要花钱。训练数据比推理更容易,但随着更多的推理是在边缘的不同切片上进行的,情况可能会发生变化。
人工智能还有另一个方面,其中的挑战是发现数据中的模式并对其做出反应,以及设置可接受行为的参数。这是最终将对我们生活的世界产生最大影响的领域,但到目前为止,研究人员只触及了表面。最大的问题是,这项技术还可以做什么,这直接关系到对那些高度先进的人工智能架构的需求,包括在哪里进行处理,以及它可以使用多少功率。
在许多方面,人工智能是设备扩展的下一个版本。不过,它不仅仅是扩展硬件功能,还利用了软件算法和网络方面的巨大改进。因此,与标准的冯·诺依曼计算架构和混合优化的软件堆栈不同,硬件与软件相匹配,后者正在寻找数据中的模式并对其做出反应,而不是试图理解单个比特。从长远来看,主流计算机体系结构很大程度上是建立在旧的穿孔卡片模型的改进之上的,这种模型可以追溯到近130年前。人工智能通过使用模式识别和神经网络,使这种模型远远超出了设备的物理限制。
在某种程度上,人工智能已经在具有面部识别功能的智能手机上得到了应用,在识别和分类物体方面,汽车应用也将需要人工智能。但它可以延伸得更远。对于半导体来说,模式识别可以作为设计、制造甚至后期生产数据之间的桥梁。能够识别芯片或终端设备内部可接受的行为分布,对于预测分析和自修复系统非常有用。例如,设计一个人工智能系统,可以管理流经系统的数据流量,并在系统部分损坏或不再正常工作时重新路由流量,这并不是一个延伸。
不过,目前尚不清楚的是,所有这些在功率、性能和设计成本方面需要多少开销。人工智能竞赛的第一部分是让快速芯片和系统运行起来。下一个部分将是看看它能在经济上扩展到什么程度,对系统设计有什么影响,精度降低对最终结果有多大影响,以及所有这些将花费多少钱。
人工智能是一个巨大的旋钮,在科技界有各种各样的可能性。下一步是要从市场和成本的角度找出什么是现实的,并开始制定路线图,为这种开发努力提供一些结构——在大规模的风险投资开始减少之前。
很棒的文章,
下一个技术会是什么?这个故事会不会是为“超维计算”的推出做铺垫呢?我建议你看一看马里兰大学团队发表在《科学杂志-机器人》上的文章,或者看看Vicarious AI的内部结构。另外,如果你喜欢负电容门晶体管与HDC相结合,建议阅读加州伯克利大学的Justin Wong博士论文。
HDC终于从它的冬眠中醒来,在现场爆发,所以准备好非常忙碌,因为这颗认知计算的种子包围了我们所有人……