追踪基础 AGI 理论的演变

realtime news  Aug 02, 2024 15:08  UTC 07:08

1 Min Read

人工通用智能(AGI),一种具有类人智能的机器梦想,可以追溯到1950年代早期的计算理论。约翰·冯·诺依曼等先驱探索了复制人脑功能的可能性。今天,AGI 代表着从狭义的 AI 工具和算法向一种可以学习、理解和应用其知识来完成一系列广泛任务的智能形式的范式转变,这些任务的水平达到了或超越了人类水平。

虽然对 AGI 的精确定义尚无广泛达成一致,但它一般指的是一个工程系统,能够:

  • 展示类人般的通用智能;
  • 在广泛的任务中学习和泛化;
  • 在整个世界的背景下灵活地解释任务。

通向 AGI 的历程充满了无数的理论和概念框架,每一个都在理解和实现这一革命性技术的过程中作出了贡献。

最早的 AGI 概念化

艾伦·图灵的开创性论文《计算机机器与智能》 (1950) 提出了机器可能表现出无法与人类区分的智能行为的想法。图灵测试评估机器展示类人反应的能力,成为了一个基础概念,强调了在定义智能中行为的重要性。约翰·冯·诺依曼的书《计算机与大脑》 (1958) 探讨了神经过程与计算系统之间的相似性,激发了对神经计算模型的早期兴趣。

符号 AI 和早期挫折

在1950年代和60年代,艾伦·纽厄尔和赫伯特·西蒙提出了物理符号系统假说,断言物理符号系统具有进行通用智能行动的必要且充分的手段。这一理论支持了早期的大部分 AI 研究,导致了符号 AI 的发展。然而,到20世纪60年代末,早期神经网络模型和符号 AI 的局限性变得明显,导致了20世纪70年代由于资金和兴趣减少的第一次 AI 寒冬。

神经网络和连接主义

20世纪80年代,神经网络研究迎来了复苏。专家系统的发展和商业化使 AI 再次进入公众视野。计算机硬件的进步提供了运行更复杂 AI 算法所需的计算能力。戴维·鲁梅哈特、杰弗里·辛顿和罗纳德·威廉姆斯开发的反向传播算法,使多层神经网络能够从数据中学习,有效地训练复杂模型,并重新点燃了对连接主义方法的兴趣。

1982年,约翰·霍普菲尔德引入了霍普菲尔德网络,1983年至1985年,杰弗里·辛顿和特里·塞诺夫斯基开发了玻尔兹曼机,进一步推进了神经网络理论。

机器学习和深度学习的出现

唐纳德·赫布的原则,总结为“共同发火的细胞,共同连接”,奠定了无监督学习算法的基础。1982年,芬兰教授特沃·科霍宁的自组织映射表明,系统可以自组织形成有意义的模式,而不需要明确的监督。2012年,ImageNet 的突破,以 AlexNet 的成功为标志,彻底改变了 AI 和深度学习领域,展示了深度学习在图像分类方面的力量,并激发了对计算机视觉和自然语言处理的广泛兴趣和进步。

认知架构和现代 AGI 研究

像 SOAR 和 ACT-R 这样的认知架构在20世纪80年代作为人类认知的全面模型出现,旨在通过解决问题和学习复制通用智能行为。20世纪90年代的具身认知理论强调了身体和环境在塑造智能行为中的作用。马库斯·胡特的通用人工智能理论和 AIXI 模型(2005年)为 AGI 提供了一个数学框架。

AGI 理论的一个重要发展是2008年本·戈特策尔创建的 OpenCog 开源软件框架,致力于整合各种 AI 方法创建一个能够实现类人智能的统一架构。2010年代整合神经和符号方法的努力旨在结合两者的优势,为通往 AGI 提供了一个有前途的途径。

AI 和 AGI 的当前前沿

在2020年代,像 GPT-3 这样的基础模型已经在文本生成应用中初现曙光,展示了一些跨上下文迁移学习的能力。然而,它们在全谱推理、情感智能和透明度方面仍然有限。在 OpenCog Classic 的基础上,OpenCog Hyperon 是下一代 AGI 架构的代表。这个开源软件框架在统一的认知架构中综合了多种 AI 范式,推动我们实现人类水平的 AGI 及更高水平。

SingularityNET 称,本·戈特策尔博士认为 AGI 现在已经近在眼前,很可能在未来几年内实现。他强调保持 AGI 部署的分散性和治理的参与性和民主性的重要性,以确保 AGI 成长为对人类有益的事物。

随着我们继续推动大语言模型和集成认知架构如 OpenCog Hyperon 的边界,AGI 的地平线越来越近。这条路布满挑战,但研究人员、远见者和从业者的集体努力使我们不断向前推进。我们共同创造着智能的未来,将抽象变为具体,并逐步接近能够像人类一样深刻思考、学习和理解的机器。



Read More