【创业24小时】2022年7月18日
06-17
随着人们越来越多地使用AI来解决各个领域的问题,一场“AI军备竞赛”已经开始,即创造设备可以实现运行深度学习模型的专用硬件的更高速度和更低功耗,从而实现翻译应用、数字助手、面部识别系统、内容推荐系统等功能,甚至在医疗保健和自动驾驶等领域取得更大进步。
这场竞赛已经有很多新的突破,包括新的芯片架构;这些突破使得执行任务的新的、前所未有的方式成为可能。
针对这一现象,软件工程师和科技博客TechTalks的创始人本迪克森表示,通过洞察这些新的突破,我们或许能够一睹未来几年AI硬件架构的发展。
以下为Ben Dickson的观点,雷锋网整理补充,不改变原意。
神经形态芯片神经网络是深度学习的关键,由数千个人工神经元组成。
无论是简单的计算,还是图像识别、语音识别等复杂任务,都离不开(人工)神经网络。
然而,目前人们对传统计算机的升级并不是基于神经网络的优化,而是基于一个或多个强大的中央处理器(CPU)。
神经形态计算机与传统计算机不同,因为它们使用独特的芯片架构来模拟神经网络,称为神经形态芯片。
该芯片由许多物理人工神经元组成,在训练和运行神经网络时非常快速高效。
事实上,神经拟态计算的概念早在20世纪80年代就已经出现,但由于当时神经网络的效率低下,这一概念并没有引起太多关注。
近年来,随着人们对深度学习和神经网络的兴趣重新兴起,神经形态芯片的研究也受到了新的关注。
今年8月,顶级学术期刊《自然》(Nature)发表了清华大学石路平教授团队的研究成果,该研究成果也登上了该期封面。
(参见雷锋网此前报道)杂志上一篇题为《面向人工通用智能的异构天机芯片架构》(Towards Artificial General Intelligence with Hybrid Tianjic Chip Architecture)的论文介绍了清华大学石路平教授团队开发出一款名为“天机”的新型人工智能芯片,也就是本文提到的神经形态芯片;它结合了类脑计算和基于计算机科学的人工智能。
为了验证这款全球首款异构融合AI芯片,研究团队设计了无人智能自行车系统。
据悉,该系统包括激光测速、陀螺仪、摄像头等传感器,制动电机、转向电机、驱动电机等执行器,以及控制平台、计算平台、天机板级等处理平台系统。
论文第一作者、加州大学圣塔芭芭拉分校博士后邓雷认为,与自动驾驶飞机相比,智能自行车看起来很小,但实际上它是一个小型的类脑技术平台,所有五个内脏器官。
....无人驾驶自行车系统的语音识别、自主决策和视觉跟踪功能使用模拟大脑的模型,而目标检测、运动控制和避障功能则使用机器学习算法模型。
尽管没有直接证据表明神经形态芯片是创建通用人工智能的正确途径,但它们的发展肯定有助于创建更高效??的人工智能硬件。
而且,神经拟态计算吸引了大型科技公司的关注——今年7月,英特尔推出了Pohoiki Beach,这是一款配备64颗英特尔Loihi神经拟态芯片的计算机,能够模拟总共10000个人工神经元; Loihi 处理信息的速度比传统处理器快两倍,效率高 0 倍。
然而,这种神经形态芯片并不适合取代传统的CPU架构。
它的潜力在于加速约束满足问题、图搜索和稀疏编码等专业应用。
英特尔还承诺在今年晚些时候将 Pohoiki Beach 的神经元数量扩展到 1 亿个。
光学计算众所周知,神经网络和深度学习计算需要大量的计算资源和电力,而人工智能的碳足迹已成为环境问题。
六月,研究人员估计,训练人工智能的碳足迹相当于数吨二氧化碳当量,或者是普通汽车生命周期排放量的五倍。
同时,神经网络的能耗也限制了其在功率有限的环境中的应用。
随着摩尔定律不断放缓,传统电子芯片的发展越来越难以满足人工智能产业的需求。
目前,多家公司和实验室已将注意力转向光计算来寻找解决方案——光计算使用光子代替电子,使用光信号代替数字信号来进行计算。
由于光计算设备不像铜缆那样产生热量,这大大降低了其能耗;光学计算还特别适合快速矩阵乘法,这是神经网络中的关键运算之一。
在过去的几个月里,一些光学人工智能芯片的原型已经出现。
总部位于波士顿的Lightelligence公司开发了一种光学人工智能加速器,它与当前的电子硬件兼容,通过优化一些繁重的神经网络计算,可以将人工智能模型的性能提高一到两个数量级。
Lightelligence 工程师表示,光学计算的进步也将降低人工智能芯片的制造成本。
最近,香港科技大学的研究人员开发了一种全光神经网络。
为了确认这种新方法的能力和可行性,他们构建了一个概念验证模型,一个具有 16 个输入和 2 个输出的全连接两层神经网络,然后使用全光网络执行有序 Ising 模型和无序的阶段。

结果表明,全光神经网络与训练有素的基于计算机的神经网络一样准确。
研究团队成员刘俊伟表示:我们的全光解决方案可以让神经网络以光速进行光学并行计算,同时消耗很少的能量。
大规模全光神经网络可用于从图像识别到科学研究的各种应用。
大芯片 雷锋网注:上图为来自 Cerebras 的大芯片。
有时,扩大规模确实是解决问题的好方法。
今年8月,硅谷初创公司Cerebras Systems推出了包含1.2万亿个晶体管的大规模人工智能芯片,这也是有史以来最大的半导体芯片;此外,它的核心面积为5平方毫米,拥有40万个晶体管,比Nvidia最大的图形处理器(尺寸为1.5平方毫米)大56.7倍。
这种大芯片加快了数据处理速度,可以更快地训练人工智能模型——据报道,谷歌、Facebook、OpenAI、腾讯、百度等许多公司认为,当今人工智能的基本限制是训练模型的成本和时间太长长的。
因此,减少人工智能训练时间可以消除整个行业进步的主要瓶颈。
与传统GPU和CPU相比,这种超大芯片的独特架构还降低了能耗。
The Linley Group首席分析师Linley Gwennap在一份声明中表示:Cerebras的晶圆级技术已经取得了巨大飞跃,使得单片硅的处理性能远远超出了任何人的想象。
为了完成这一壮举,该公司甚至解决了一系列困扰工程行业数十年的恶性工程挑战。
Cerebras 最近还与美国能源部签署了一份合同,美国能源部将使用该芯片加速科学、工程和健康领域的深度学习研究。
不过,制造超大规模芯片并不意味着万事大吉。
因为芯片的尺寸会受到所用空间的限制;而且,芯片制造商通常不会制造如此大规模的芯片,因为在制造过程中很可能出现杂质,导致芯片故障。
由于目前各行各业都在寻找深度学习的应用场景,单芯片架构主导市场的可能性微乎其微。
但可以肯定的是,未来的AI芯片很可能与过去几十年的经典CPU有所不同。
雷锋网注:本文编译自VentureBeat。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-17
06-17
06-18
06-18
06-18
06-18
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态