当前位置:网站首页 > 科技网络 > 正文

认知架构的演变将带来类似人类的AI

作者:访客发布时间:2023-04-25分类:科技网络浏览:182评论:0

导读:导读没有一种正确的方法来建造一个机器人,就像没有单一的方法来传授它的智慧一样。上个月,Engadget与卡内基梅隆大学副研究教授和弹性智能系统...
导读 没有一种正确的方法来建造一个机器人,就像没有单一的方法来传授它的智慧一样。上个月,Engadget与卡内基梅隆大学副研究教授和弹性智能系统

没有一种正确的方法来建造一个机器人,就像没有单一的方法来传授它的智慧一样。上个月,Engadget与卡内基梅隆大学副研究教授和弹性智能系统实验室主任Nathan Michael进行了交谈,他的工作涉及将机器人的各种零碎能力堆叠和组合在一起,因为它将它们学习为合并的人工通用智能(AGI) 。想想,一个学习如何吸尘的Roomba,然后学会如何拖把,然后学会如何撒粉和做菜 - 很快,你就得到了The Jetsons的 Rosie 。

但是,尝试在短暂的人类思维或大脑的精确物理结构(而不​​是迭代越来越有能力的Roombas)之后建立智能模型并非易事 - 而且还有少量的竞争假设和模型可以启动。事实上,2010年对该领域的一项调查发现,正在积极研究二十多种此类认知架构。

ADFS

目前的AGI研究状况是“一个非常复杂的问题,没有明确的答案”,南加州大学计算机科学教授,Sigma架构开发人员Paul S. Rosenbloom告诉Engadget。“有一个领域称自己是AGI,这是一个相当新的领域,试图与传统的AI形成对比。” 也就是说,在这个意义上的“传统AI”是我们在数字助理和地板擦洗女佣机器人周围看到的狭窄,单一的过程AI。

“这些领域或子领域都不一定是内部一致或组织良好的,”密歇根大学工程学教授和Soar建筑开发人员John E. Laird向Engadget解释道。他指出,这些领域的研究是伪联合会,主要由决定参加特定会议的人组成。“很难为AGI或任何子领域获得必要和充分的标准,因为它确实是决定在该地区工作的人的社会契约,”他承认。

莱尔德指出,在AGI研究的早期,这些会议不是由学者主导,而是由业余爱好者和业余爱好者主导。“有很多人对AI感兴趣,未来可能是什么,但他们不一定是活跃的研究人员。我认为,多年来,这种情况发生了变化,那些参加那次会议的人特别具备改变“。

“从历史的角度来看,”CMU心理学教授,ACT-R架构的创始人Christian Lebiere补充道。“人工智能在过去,几乎是强人工智能的代名词,这是对可以实现的相当广泛的人类能力的强烈主张。人们在某种程度上过度承诺和交付不足,所以在80年代早期出现了崩溃,然后,在某种程度上,社区缩小为缩小AI。“ 来自Rocky 4的 Paulie的机器人管家就是这种过度承诺的一个例子。

ASDF

但即使在竞争架构中,研究人员也发现了大量的功能重叠。以ACT-R和Soar为例。“ACT-R与人类认知建模联系更紧密,并将处理映射到大脑,”莱尔德解释说。在“翱翔,我们更多地受到心理和生物结构的启发,并试图建立更大的人工智能系统。” 也就是说,Soar探索“更长的时间尺度,更高的水平,认知能力”,Laird继续说道,而“ACT-R将处于更短的时间尺度和更低级别的心理现象的更详细建模。”

Rosenbloom补充说:“你可以把西格玛视为一个旋转翱翔,试图从翱翔,ACT-R和其他人那里学习。”

2017年,他们提出了心灵标准模型,这是一个通用参考模型,可作为“该领域的累积参考点”,可作为研究和应用开发的指导。“我们建议为类似人类的思想开发这样一个模型,计算实体的结构和过程与人类认知中的结构和过程基本相似,”三人在AI杂志上写道。

“如果你看一下AGI社区,”Rosenbloom说,“你会看到所有的东西,从尝试构建一个涵盖所有AI的方程到我们可以选择一大堆便利技术并将它们放在一起的方法,以及希望他们会产生一些有趣的东西。“ 这就是心灵标准模型试图编纂的内容。

“建筑方法的本质在于它是构成事物的结构,”Rosenbloom继续道。“在计算机中,它提供了一种我们可以编程的语言。当我们谈论认知架构时,我们谈论的是什么是固定的记忆,学习和决策机制,除了你要去的东西之外计划或教导它。“

“你正在试图理解[心灵]的结构以及这些部分如何协同工作。了解它们如何协同工作是一个关键部分,”Rosenbloom说。“所以它不仅仅会出现更多的单件,你实际上已经将固定结构作为一个重要的工件进行研究,然后再谈论知识和技能。”

莱尔德指出,“有证据表明,大脑不仅仅是一群同质的神经元,在出生时会以某种方式开始融入我们大脑中的结构。” 他认为,在这个星球上出现智能生命需要数千年的时间才能创造出必要的建筑和底层结构需要数千代人才。

这就是为什么这些研究人员对低级智能建模以及向人类级思维过程努力的原因不太感兴趣。那和,“你不能和青蛙说话,”莱尔德惊呼道。“我们研究的人类认知远远超过动物的认知,至少在所有这一切开始的时候。所以你现在可以说我们对动物的了解越多,看待那种东西就越有意义。但它没有必然在过去。“

这一研究领域引发了机器人技术的行为方法。据莱尔德说,它随后的受欢迎程度对AGI的研究证明是灾难性的。“事实证明,它被我们所认为的低水平感知和运动问题所支配”Lebiere解释道。“你真的在构建世界上的物理系统。如果采用这种方法,你有可能不会过多关注并投入大量的认知方面的资源。” 基本上,这种方法使我们更好地迭代Roombas以追求Rosie而不是发展她的思想并将其粘贴在机器人体内。

“另一种说法是,尝试只是做认知是建立在沙屋上,”莱尔德反驳道。“你必须通过感知动作与环境保持良好的互动。”

“在认知架构演变的一个方面,感知和行动的整合与认知平等,”Lebiere补充道。

但即使机器人的身体和思想学会同时成长和发展,Laird,Lebiere或Rosenbloom也不会特别关注我们机械构造手中的奇点或全球政变。

Rosenbloom说:“我们的系统存在一系列问题,这与你所做的任何计算机系统都有同样的担忧。” 例如,自动驾驶汽车,你必须确保他们不仅在他们设计的现实环境中工作,而且确保他们按照预期工作。“但这个想法是超越这个想法,试图统治世界的智能系统,”他总结道。“这与自动驾驶汽车安全完全不同。”

Lebiere指出了AGI发展的第二个关键点。“因为数据驱动的机器学习方面有很多,”他认为,“对于那种AI的许多担忧是对数据的隐私担忧,而不是本身关注AI的力量。 “

但这并不是说AGI的追求会很快停滞不前。Rosenbloom解释说,这个领域是循环运作的。繁荣发生在“其中一种技术从狭窄中发展出来。人们非常兴奋,因为突然间,你可以做你以前做不到的事情。” 我们看到Siri和其他数字助理的类似热潮。然而,一旦人们意识到这些新技术的局限性,无论它们与以前相比有多远,人们最终都会对它们失去兴趣并且周期重置。但是,接下来起飞的人工智能技术将会起作用,这仍然是任何人的猜测。