我们都知道,人工智能的研究是建立在人脑如何工作的基础之上的,所以业内的顶尖研究机构一直在致力于「模仿大脑」。
近日,英特尔研究院与美国康奈尔大学的研究人员在《Nature MachineIntelligence》杂志上公布了一项新的研究成果 —— 英特尔神经拟态研究芯片 Loihi 已经具备了“嗅觉”,可以根据生物信号来识别“嗅”到的气味。
相比近几年不断有突破的视觉感知领域,复刻嗅觉涉及到的神经系统和算法更为复杂,英特尔此次的研究无疑让我们离复制大脑更进了一步。
神经形态计算芯片 Loihi
Loihi(发音为 low-ee-hee)是由 Intel Labs 设计的一种神经形态研究测试芯片,诞生于 2017 年 9 月,推出时就被定义为「下一代 AI(Next Generation of AI )」,能够将生物大脑中的计算原理应用于计算机体系结构。
该芯片脱离了传统硅芯片的冯诺依曼计算模型,而是模仿人脑原理的神经拟态计算方式,并且是异步电路,不需要全局时钟信号,而是使用异步脉冲神经网络(SNN),在特定应用中要比传统 CPU 速度快最多 1000 倍,能效高最多 10000 倍。
从理论上讲,Loihi 可以扩展到最多 16384 颗芯片互连,那就是超过 20 亿个神经元(人类大脑有大约 860 亿个神经元)。这得益于一种新型的神经网络,称为“尖峰神经网络”。该芯片的系统使用神经元的生物逼真模型,通过模拟大脑来处理现实世界的感觉数据,从而在一定程度上了解环境。
英特尔团队此次公布的研究方向,是研究哺乳动物大脑闻到气味时所发生的情况。我们的鼻子中大约有 450 种不同类型的嗅觉受体,这些气味可以通过空气中的气味分子激活,从而向大脑发送信号,在大脑中,相连的一组神经元内的电脉冲会产生特定气味的感觉。
更重要的是,我们的大脑可以存储过去的气味经验,以及交叉引用不同的气味,以不断处理新信息,并确保我们区分出数万亿种不同的气味。
英特尔 Loihi 芯片的工作原理和我们目前人知道的大脑运行模式相似,当发送到神经元的脉冲达到一定的激活水平时,芯片系统就将通过“突触”想其他神经元发送信号。
据介绍,现阶段的 Loihi 只需要单一样本,就可以学会识别每一种气味,而且不会破坏它对先前所学气味的记忆,展现出了极其出色的识别准确率。如果使用传统方法,即便最出色的深度学习方案,要达到与 Loihi 相同的气味分类准确率,学习每一种气味都需要 3000 倍以上的训练样本。
当然,英特尔这次只是迈出了第一步,离真正复制大脑的嗅觉系统还差的很远。
根据官方提供的资料显示,Loihi 这个名字来源于一座夏威夷旁边的岛屿洛伊希岛(Lo'ihi)。这是夏威夷海山中唯一一座处于发展初期的火山。
模拟大脑
就如我们文章开头所说,人工智能的研究是建立在人脑如何工作的基础之上的,所以为了满足人工智能和机器学习各方面日益成长的需求,近年来有大量的研究均着重于大脑启发计算,以突破计算性能和内存需求爆发等挑战。
但模仿大脑的计算机概念并不是什么新事物,Caltech 科学家 Carver Mead 早在 1980 年代就提出了这一概念,并创造了「神经形态学(neuromorphic)」一词。
「神经形态」的概念一般是指使计算机可以像生物大脑一样思考和处理信息,之所以说是概念,就是因为神经形态目前在很大程度上仍然是科学项目,几乎没有商业应用。目前已知的潜在应用场景,就是为机器人配备电子鼻系统来检测有害物质等。
但研究人员的目标是将神经形态学应用于更广泛的用例中,从感官场景分析到抽象的问题,如计划和决策。了解大脑的神经回路如何解决这些复杂的计算问题,也将为设计高效而强大的机器智能提供重要线索。
最早的模拟人脑实验中,一般都是使用硅芯片来进行模拟,但因为材质的限制,速度和能耗能让人不能接受,于是有研究这提出用神经形态芯片来替代传统芯片这一尝试,也就是我们今天提到的 Loihi。和传统的硅芯片相比,神经形态芯片具有速度快、能耗低、可扩展性高等优点。
Loihi 不是唯一一个神经形态芯片。在德国,于利希研究中心的神经科学与医学研究所正在与 SpiNNaker 超级计算机合作,来模拟皮质微电路;而 IBM 的 Neuromorphic Devices and Architecture Project 也正在进行类似的实验。
但是,英特尔似乎特别致力于神经形态计算的发展。去年,该公司宣布将向研究界提供由 64 个 Loihi 研究芯片组成的 800 万个神经元神经形态系统。该系统的代号为「Pohoiki Beach」,旨在让科学家们扩大神经启发算法的规模。
我们离《西部世界》还有多远?
看过《西部世界》的朋友应该都知道,这其实就是一个人工智能觉醒的故事。
第三季现在已经开播了,第二季结尾德洛丽丝带着五个核心记忆球(是不是可以理解为复刻出的人脑?)进入人类世界之后,相信在第三季里人工智能与人类的战斗即将全面展开。
很多人认为,人工智能的发展最终就是 AI 的意识觉醒,而 AI 拥有意识之后会发生什么?会像《西部世界》中的一样开始报复人类么?
对于这个问题,2018 年 OpenAI、牛津大学、剑桥大学等 14 家机构和高校共同发布了一份《人工智能恶意使用》报告,在报告中号号召整个人工智能领域形成一套规范和道德框架,来避免灾难的发生。
但这样就够了么?人工智能在道德框架中对人类就没有恶意和危害了么?这可能仍然是一个没有答案的问题。
但我们只能向着最终的结果,一步一步的往前走。
这个问题你怎么看?欢迎在评论区和我一起交流探讨。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。