|新一代信息技术 信息基础设施建设 互联网+ 大数据 人工智能 高端信息技术核心产业
|高端制造 机器人 智能制造 新材料
|生物产业 生物医药 生物农业 生物技术
|绿色低碳 清洁能源汽车 环保产业 高效节能产业 生态修复 资源循环利用
|数字创意 数创装备 内容创新 设计创新
|产业资讯
|地方亮点及地方发改委动态
|独家内容
|杂志订阅
✍️ 投稿
您的位置:首页 > 其它 > 独家内容
人脑才是计算机的终极形态?
2024-04-24 14:04

中国战略新兴产业融媒体记者 李子吉

 

神经形态计算







神经形态计算是一种新型计算机架构,其中计算机被构建为像人脑一样处理信息并与世界交互。具体来说,是将训练和推理整合到一起、将内存与计算能力集成于一体,使用神经网络构建机器,并通过物理方式实现信息的传递,从而模拟人脑神经元和突触进行运算。

 

据新社消息,英特尔公司日前发布名为Hala Point的大型神经拟态系统,旨在支持类脑人工智能领域的前沿研究,解决人工智能在效率和可持续性等方面的挑战。

神经拟态计算近年来被视为推动类脑人工智能、脑机接口发展的关键技术。有业内人士表示,Hala Point系统部署应用或将加速全球范围类脑人工智能领域研究和应用成果爆发。
那么,“大型神经拟态系统”“神经形态计算”都是什么?Hala Point与其他电脑的区别在哪里?我国在这方面科研及应用进展如何?神经形态计算在大规模市场化的过程中还面临怎么样的挑战?



50倍的处理速度,1%的能耗


 

根据英特尔公司发表的新闻公报,英特尔在其第一代大规模研究系统Pohoiki Springs的基础上,改进了Hala Point大型神经拟态系统的架构,将神经元容量提高了10倍以上,性能提高了12倍。

当前的AI产业发展(如大型语言模型ChatGPT)仍然面临一些问题:比如数据量级大、数字形态日趋多元化,很多数据需要智能化处理;另外,AI的应用对延时要求更加严格,传统的单一计算架构会遭遇性能和能耗方面的瓶颈。
神经形态计算的发展可能会显著减轻当前AI部署中巨大的训练负担,从而实现更加高效地学习和适应新数据,提高其普遍性和实用性。
目前,虽然神经形态计算尚处于发展初期,Hala Point也还仅是一个旨在改进未来商用系统的研究原型,但初步成果已显示出其在AI领域的巨大潜力。英特尔预计其研究将带来实际技术突破,如让大语言模型拥有从新数据中持续学习的能力,从而有望在AI广泛部署的过程中,大幅降低训练能耗,提高可持续性。
Hala Point系统的物理形态是一个六机架的数据中心机箱,体积相当于一个微波炉大小,但集成了1152个英特尔Loihi 2处理器,包括分布在140544个处理核心上的11.5亿个人工神经元和1280亿个人工突触。在运行传统深度神经网络时,每秒可进行20千万亿次运算。

可以对比的是,人脑大约有860亿个神经元,1万亿到100万亿个突触,看起来远远强于Hala Point,然而Hala Point拥有14万个核心,可以同时处理多项任务,而人脑相当于只有一个核心。
英特尔表示,与使用中央处理器和图形处理器的传统计算机相比,Hala Point系统在执行人工智能推理和处理优化问题时,速度比常规CPUGPU架构提高50倍,能耗仅为传统计算机的1%
目前最大的超级计算机,美国橡树岭国际实验室的Frontier,虽然也能完成和人脑相似的计算量,但它占地680平方米,运行功率高达22700千瓦。
英特尔研究院神经拟态计算实验室主任麦克·戴维斯(Mike Davies)表示,人工智能模型的算力成本持续上升,行业需要能够规模化的全新计算方法。Hala Point系统将高效率的深度学习和类脑持续学习、优化能力结合起来,希望其能够提升大规模人工智能技术的效率和适应性。
据英特尔介绍,Hala Point是第一个在主流AI工作负载上展示最先进计算效率的大型神经拟态系统。Hala Point的独特功能可以为人工智能应用提供未来的实时持续学习,如科学和工程问题解决、物流、智慧城市基础设施管理、大型语言模型(LLM)和人工智能代理。
据悉,Hala Point系统将向桑迪亚国家实验室交付,标志着英特尔共享的大型神经拟态研究系统的首次部署,进一步推动神经拟态计算应用和类脑人工智能研究等。



什么是神经形态计算


 

以目前研究来看,生物大脑中,神经元细胞会通过树突、突触等实现信号传递与调整等功能,同时,神经元间会以脉冲信号形式相互交流。实际上,单个神经元的结构和功能并不复杂,但通过突触互连的大规模神经网络,就能实现各种复杂的学习和认知功能。

神经形态计算是一种新型计算机架构,其中计算机被构建为像人脑一样处理信息并与世界交互。具体来说,是将训练和推理整合到一起、将内存与计算能力集成于一体,使用神经网络构建机器,并通过物理方式实现信息的传递,从而模拟人脑神经元和突触进行运算。
在这种架构下,计算任务由许多小单元进行,单元之间通过类似生物神经的尖峰信号相互通信,并通过尖峰调整其行为。这种方式允许信息在众多路径上同时流动,从而提高并行处理能力,大大提高计算效率和能效。
而传统计算机处理器与内存是分开的,利用二进制在CPUGPU或内存间按顺序进行处理,数据必须在中间反复传递,处理大量和复杂数据时容易形成瓶颈。
神经形态计算机就像一个圆盘状城市的交通网络,居民和物流可以快速从任何一点到达另一点,高效快捷延迟很低。

>>冯诺依曼架构与神经形态架构的对比
早在2018年,基于英特尔研究院的先进技术研究,英特尔推出了首款神经拟态芯片Loihi,采用14nm制程,可应用于机器嗅觉等场景。
2021年,Loihi 2处理器发布,首发采用Intel 4工艺,集成230亿个晶体管、六个低功耗x86核心、128个神经形态核心,单颗就有100万个神经元、1.2亿个突触,是上代规模的8倍,性能也提升了10倍。
如今,英特尔已经将Loihi 2芯片用于机械臂、神经拟态皮肤、机器嗅觉等场景。英特尔表示,Loihi 2应用了众多类脑计算原理,如异步(asynchronous)、基于事件的脉冲神经网络(SNNs)、存算一体,以及不断变化的稀疏连接,以实现能效比和性能的数量级提升。神经元之间能够直接通信,而非通过内存通信,因此能降低整体功耗。
神经形态计算是一个刚刚发展的领域,潜力巨大,未来可能会改变AI的游戏规则,尤其是类似ChatGPT这样的大语言模型,神经形态计算可能会对其学习和训练过程产生重大影响。
神经形态计算机具有极高的能效,Hala Point才刚刚起步,在AI工作负载上的能效就已远远超过大多数现有的神经处理单元和AI系统,可以在较低能耗下完成更多的计算任务——能耗少100倍,速度却快了50倍。
另外,神经形态计算相较传统计算架构的一大优势不在于吞吐量,而在于超低延时。
尽管传统计算架构非常擅长调用大量数据并行,但它们得先积累所有数据样本,然后才能做计算处理。
神经形态计算采用的是神经网络结构,特别是利用突触和神经元的模拟进行信息处理。这种方式更接近人脑的工作机制,可以更有效地处理某些类型的模式识别和学习任务;与传统计算机系统将内存和处理器分开不同,神经形态计算机将这两者集成在一起,减少了数据传输的需要,从而能够更快地处理大量的并行任务,提高处理速度和效率。
简单来说,神经形态计算架构几乎可以实时地从数据中学习、计算和产生答案,最终做出的预测可能比传统机器学习模型的预测更为准确。
在能耗方面,因为实现了存储和计算的完全融合,神经形态计算实现了能效的提升。数据移动是最耗能的部分之一,这种存算一体的结构,最小化了数据传输的距离,节约了传统计算架构中处理单元和存储器间通信所消耗的时间和功耗。此外,尖峰神经网络由事件驱动,这意味着神经形态系统只对输入的变化作出反应,而不像传统计算机那样在后台连续运行,从而进一步减少能耗。



有望打开万亿市场成长空间


 

神经形态计算的创新架构方法将为未来需要能源效率和持续学习的自主人工智能解决方案提供动力。它有望在计算领域开创令人振奋的全新可能性,且已在各种领域中广泛应用,包括感应、机器人、医疗保健和大型人工智能应用程序。

英特尔中国研究院院长宋继强曾表示,未来神经拟态计算很有可能会落地到商用或者消费级的产品。目前神经拟态计算在服务机器人以及智能家居等场景下可以有很好的表现。
天风证券指出,据麦肯锡2020年研究报告显示,2030-2040年脑机接口全球每年的市场规模可能在700亿到2000亿美元之间;脑机接口未来市场发展潜力广阔,鼓励政策频出,应用场景多元。
脑机接口作为生命科学和信息技术交叉融合的前沿颠覆性技术,已经吸引了众多互联网科技巨头布局。
据国信证券研报数据显示,目前全球提供脑机接口产品和业务的公司有两百余家,主要集中在美国和中国。互联网科技巨头纷纷介入脑机接口领域,马斯克旗下脑机接口公司Neuralink、谷歌、微软、Facebook等科技巨头也开始布局开发底层技术。
QYResearch研报显示,全球范围内,类脑计算芯片主要生产商包括英特尔、IBMNepesGrAI Matter Labs等欧美韩企业,其中前五大厂商占有大约87.52%的市场份额。预计到2030年,全球类脑计算芯片市场规模将达到2.92亿美元,未来几年年复合增长率为45.77%
中国也在积极布局类脑计算前沿研究,加快类脑智能战略发展。
2017年,我国提出2030年类脑智能领域取得重大突破的发展目标。2021年,科技部发布了“脑科学与类脑研究”重大项目相关申报指南,部署了近60个研究方向,立足于探索大脑奥秘和攻克大脑疾病的脑科学研究以及建立发展人工智能技术的类脑研究,被各界形容为“中国脑计划”。近年来,国家还成立了类脑智能技术及应用国家工程实验室等机构。
202310月,中国科学技术大学郭光灿院士团队孙方稳课题组和国家同步辐射实验室/核科学技术学院邹崇文课题组合作,制备了基于二氧化钒相变薄膜的类脑神经元器件。
同样在202310月,国内目前规模最大的类脑计算机——“问天I”类脑计算机在南京发布,其已实现超过5亿神经元2500亿突触智能规模,处于国内领先、国际同等水平。
“问天I”类脑计算机由中科南京智能技术研究院自主研发而成,其突破了基于脉冲神经网络的计算模型、体系架构、类脑硬件系统、类脑软件系统及应用开发等关键技术,打通了芯片架构-软件编译-算法模型-软硬件系统的全链条,采用了一体化设计的软硬件系统,在通用性和能效方面相比于传统计算机具有显著优势,具备“规模大、实时性高、灵活性强、更贴近脑机理”四大亮点。
英特尔表示,像Hala Point这样的机器可以创建持续学习的人工智能模型,而不是像当前的模型那样,需要从零开始训练来学习每项新任务。但英国苏塞克斯大学的詹姆斯·奈特(James Knight)将此斥为“炒作”。
詹姆斯·奈特指出,目前像ChatGPT这样的模型都是使用并行操作的显卡进行训练的,这意味着可以通过多个芯片来训练相同的模型。但是,由于神经形态计算机使用单一输入工作,并且无法并行训练,因此在此类硬件上训练像ChatGPT这样的模型可能需要数十年的时间,更不用说设计方法使其在运行中不断持续训练了。
对此,戴维斯表示,虽然现阶段的神经形态硬件还不适合“从零开始”训练大型人工智能模型,但他希望有一天能够采用预先训练的模型,并使这些模型能够随着时间的推移学习新任务。
另外,神经形态计算想要实现大规模商业化,还要面对软件和生态问题。神经形态计算架构与现有架构完全不同,而不少开发者是在底层构造自己的脉冲神经网络算法,并通过底层库把软件写进硬件做试验,这显然不是规模化的方案。
对此,清华大学的神经形态芯片十分具有代表性。2015年开发的第一代天机芯采用110nm工艺,当时仅仅是一个小样。2017年,第二代天机芯开始取得先进成果,基于28nm工艺制成,由156个功能核心FCore组成,包含约4万个神经元和1000万个突触。相比第一代,密度提升20%,速度提高至少10倍,带宽提高至少100倍。
为了让神经形态芯片更具实用性,清华大学还自主研发了软件工具链,支持从深度学习框架到天机芯的自动映射和编译。根据清华大学的计划,下一代天机芯将是14nm或更先进的工艺,且功能会强大更多。(综合编辑)

END


 

编辑:李子吉

设计:李子吉

审核:艾丽

政审王军善

终审朱永旗

关注微信公众号:

官方账号直达 | 关于我们 | 联系我们 | 招聘 | 广告刊例 | 版权声明

地址(Address):北京市西城区广内大街315号信息大厦B座8-13层(8-13 Floor, IT Center B Block, No.315 GuangNei Street, Xicheng District, Beijing, China)

邮编:100053 传真:010-63691514 Post Code:100053 Fax:010-63691514

Copyright 中国战略新兴产业网 京ICP备09051002号-3 技术支持:wicep