主页 > 旅游攻略

Gato(还远远做不到)

沈芳蕤 2023-10-25 08:32:14

摘要:戳上面的蓝字关注我们哦!本月早些时候,DeepMind发布了一款名为Gato的新的“通才”型人工智能模型。母公司为Alphabet的人工智能实验室DeepMind表示,这一模型可以完成

戳上面的蓝字关注我们哦!

本月早些时候,DeepMind 发布了一款名为 Gato 的新的“通才”型人工智能模型。母公司为 Alphabet 的人工智能实验室 DeepMind 表示,这一模型可以完成玩雅达利(Atari)视频游戏、理解图像内容、聊天、以及用物理的机器人手臂来堆栈块等各种任务。总而言之,Gato 可以完成 604 个不同的任务。


(来源:《麻省理工科技评论》)


毫无疑问,这款 Gato 模型有着十分强大的能力,而且在它发布仅仅一周之后,许多研究人员就已经对它有些痴迷了。


DeepMind 公司的顶级研究人员之一,同时也是有关 Gato 的论文的合著者的南多·德·弗雷塔斯(Nando de Freitas)就是其中的一名,谈到 Gato 他难掩自己的兴奋。“他发表推文说:“游戏要通关”,也就是说通过 Gato,人们现在找到了通往人工通用智能——即 AGI(artificial general intelligence)——的道路,AGI 这一概念是指达到类似人类或超人类级别的人工智能。他说,现在要想实现 AGI 所要解决的主要是有关规模的问题:既怎样将让类似 Gato 的模型规模更大,能力更强。


而德·弗雷塔斯的这一声明不出意外地引发了媒体的广泛报道,称 DeepMind 公司 正在达到 “接近”人类水平的人工智能。而且这已经不是媒体第一次就超越现实进行炒作了。


其实许多其他很强大的新发布的人工智能模型也发布过类似的宏伟声明,例如 Open AI 公司的文本生成器 GPT-3 模型和图像生成器 DALL-E 模型。但是很遗憾的是这种吸引人眼球的“宏伟声明”导致该领域的许多人忽略了人工智能中的其他重要的研究领域。而对于 Gato 模型来说,也是如此。

目前的一些 AI 模型中已经开始混合不同的技能:例如,DALL-E 模型可以从文本描述中生成图像。还有其他模型可以通过相对单一的训练技术来同时实现对于图片和句子的识别。此外 DeepMind 公司的 AlphaZero 模型已经既学会了下围棋、也学会了下国际象棋和将棋。


但 AlphaZero 与 Gato 的关键区别之处是:AlphaZero 一次只能学习一项任务。在学会下围棋之后,如果它想学习一门新的棋类,必须先忘记之前学会的一切。也就是说,它不能同时学习玩两种游戏。


而这里就显示中 Gato 的强大之处:Gato 可以同时学习多个不同的任务,这意味着它可以在不同技能的训练之间切换,而在学习另一种技能之前不需要忘记之前所学的技能。尽管这看上去只是一个小小的进步,但意义重大。


不过 Gato 也有缺点,那就是不能同时执行不同种类的任务。麻省理工学院专攻人工智能、自然语言和语音处理的助理教授雅各布·安德烈亚斯(Jacob Andreas)说,机器人仍然需要从文本中学习有关这个世界的“常识性知识”。


而如果机器人学会以上这些能力,将可能在某些场合很有帮助。安德烈亚斯说:“这样,当你把一个机器人带进厨房时,并首次要求它做一杯茶时,它们不需要知道就会知道做一杯茶的步骤,并同时可以自己寻找到茶袋的位置。”


但是一些外部研究人员对德·弗雷塔斯的主张表示强烈的不认同。例如人工智能研究员加里·马库斯(Gary Marcus)就认为上面所说的这些“远非‘智能’”,他对深度学习也一直持批评态度。他表示,围绕 Gato 的炒作表明,人工智能领域正被一种毫无意义的“必胜主义文化”所破坏。


马库斯说,总能吸引人们眼球并让人们兴奋的深度学习模型中的一个很大的问题是,人们总是期待它将会达到接近人类水平的智能,而如果它犯了错误,人们将会认为是这个模型的问题,而这就好像“如果一个人犯了错误,人们就认为是这个人有问题。”


他补充说:“而事实上大自然一直在告诉我们,这样的方法是行不通的。但是遗憾的是,这一领域的研究人员如此相信新闻报道,以至于完全忽略了这一点。”


就连和德弗雷塔斯一起进行 Gato 研究的同事杰基·凯(Jackie Kay)和斯科特·里德(Scott Reed)在被问到有关这一问题的看法时,也持有谨慎态度。在谈到 Gato 可能向着 AGI 的方向发展的前景时,并没有表现出很大的兴趣,他说:“我并不认为类似的预测是真正可信并有说服力的,这种预测就像预测股市一样,而我也尽量避免这么做。”


里德也表示,这个问题很难回答:“我认为大多数从事机器学习工作的人都会刻意避免回答这类问题。这很难预测,但是,我也确实希望有一天它可以实现。”


在某种角度来看,DeepMind 将 Gato 炒作为 万能的“通才”和 AGI,最终在人工智能行业的受害者可能反而是 DeepMind 自身 。这将使人们产生目前的人工智能系统的功能仍然“狭隘”的想法,即目前的人工智能只能做一组特定的、受限制的任务,比如生成文本。


包括来自 DeepMind 的一些技术专家也认为,有一天人类将开发出“更广泛的”的人工智能系统,它们将能够像人类一样工作,甚至更好。虽然有些人将其称为人工通用智能,但也有一些批判它就好像 “对魔法的信仰”。包括 Meta 公司首席人工智能科学家杨立昆(YannLeCun)在内的许多顶级研究人员也对其可能性持质疑态度。


Gato 是一个“通才”,它可以同时做许多不同的事情。但是麻省理工学院的安德烈亚斯说,这还没有达到“通用”人工智能,通用人工智能将能够根据需要灵活地执行模型没有被训练过的新型任务,而目前我们还远远做不到这一点。


他说,即使扩大模型的规模也不能解决模型无法“终身学习”的问题。终身学习是指如果教模型一些东西,他们会理解其中所有的含义,并在之后所有的任务中都将这些新学到的能力用于其中。


人工智能及机器人方面的研究员、由蒂尼特·格布鲁(Timnit Gebru)共同创立的 Black in AI 组织的成员伊曼纽尔·卡亨布维(Emmanuel Kahembwe)也认为,围绕 Gato 模型的炒作对人工智能的总体发展是有害的。


他说:“在人工智能领域还有许多有趣的,但是由于资金不足需要被更多关注的话题,但很遗憾许多大型科技公司以及这些科技公司的许多研究人员对其不那么感兴趣。”


帕特里克·J·麦戈文基金会的主席维拉斯·达尔(Vilas Dhar)说,科技公司需要经常退一步,回想并评估一下为什么要建造他们目前正在建造的东西。据悉,麦戈文基金会是一个资助人工智能项目的慈善机构。


他说:“AGI 这一概念描述的是一种深刻的有关人性的概念——通过创造可以使人类更强大的工具来推动人类变得更强大。”“而这一概念确实很好,但也要注意人们可能因为它而被分散注意力,忘记去研究我们正在面临着的需要用人工智能来解决的真正的问题。”


-End-


参考:

https://www.technologyreview.com/2022/05/23/1052627/deepmind-gato-ai-model-hype/

(0)

相关推荐

发表评论

登录后才能评论

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 123456@qq.com 举报,一经查实,本站将立刻删除。