时间维度web3.0 门户首页 维度资讯 查看内容

未来每个人与世界互动都将由AI为中介

2024-2-16 16:36| 发布者: admin| 查看: 673| 评论: 0|原作者: 金融科技教育网|来自: TIME

摘要: “Meta首席AI科学家LeCun获TIME100影响奖,探讨人工智能发展及开放策略。他认为大型语言模型不能实现“AGI”,主张开源与文化多样性。
 



Meta首席AI科学家LeCun获TIME100影响奖,探讨人工智能发展及开放策略。他认为大型语言模型不能实现“AGI”,主张开源与文化多样性。对于AI的潜在危险,他认为“荒谬”。未来Llama 3预计将实现更好的性能和视频多模态功能。

Meta的首席人工智能科学家杨立昆(Yann LeCun)上周日又获得了一项奖项,这使他漫长的奖项名单更加添彩,这次他因为对人工智能领域的贡献而被授予了时代100(TIME100)影响力奖。
在迪拜举行颁奖典礼之前,杨立昆与时代杂志进行了交流,讨论了实现“通用人工智能”(AGI)的障碍,Meta开源方法的优点,以及他对AI可能对人类构成存在风险的“荒谬”主张的看法。
如今,科技界的许多人认为,通过提供更多的计算能力和数据来训练大型语言模型(LLMs)将会导致通用人工智能的实现。你是否认同这一观点?
如果你将它们规模化进行训练,它们的工作方式令人惊叹,但它们的能力非常有限。我们今天可以看到,这些系统会产生幻觉,它们并不真正理解现实世界。它们需要大量数据才能达到一个并不那么出色的智能水平。它们不能真正进行推理。除了它们被训练过的事物之外,它们无法计划任何事情。
所以它们并非是通向人们所说的“AGI”的道路。我对这个术语深感厌恶。它们是有用的,这一点毫无疑问。但它们并非通向人类水平智能的途径。
你提到你讨厌“AGI”这个缩写。这是马克·扎克伯格在一月份使用的术语,当时他宣布Meta将转向建立通用人工智能作为其组织的中心目标之一。
这里存在着很多误解。所以FAIR(Meta的基础人工智能研究团队)的使命是实现人类水平智能。这种追求已经有所进展,虽然我对此深感失望,但我不喜欢称之为AGI,因为人类智能根本不具备通用性。有一些智能生物具备的特征,今天的AI系统还无法实现,比如理解物理世界;计划一系列行动以达到目标;以及需要花费较长时间进行推理。人类和动物都有一个用作工作记忆的特殊大脑部分。而LLMs则没有这一点。
一个婴儿在出生的几个月内学习了世界的运作方式。我们目前不知道如何通过AI实现这一点。一旦我们掌握了通过观察世界学习“世界模型”的技术,并将其与规划技术相结合,或许再加上短期记忆系统,那么我们可能会找到一条路径,虽然不是通向通用智能,但我们可以说是猫的水平智能。在达到人类水平之前,我们将不得不经历更简单的智能形式。而我们离那还有很长的路要走。
在某种程度上,这个比喻有道理,因为猫可以观察世界并学到一些先进的事情,而LLMs根本做不到。但整个人类知识的概要对猫来说是不可及的。这个比喻的局限性在于何处?
所以这是一个非常简单的计算。一个大型语言模型是根据公共互联网上可用的整个文本进行训练的,或多或少是这样。通常情况下,这相当于10万亿个标记。每个标记大约是两个字节。因此,训练数据约为2乘以10的13次方字节。然后你会说,天哪,这太不可思议了,一个人要花170,000年的时间才能读完这个。这只是一个疯狂的数据量。
但是然后你和发育心理学家谈论,他们告诉你,一个4岁的孩子在他的生命中醒来了16000个小时。然后你可以尝试量化在四年的时间里有多少信息进入了他的视觉皮层。而视觉神经大约是每秒20兆字节。所以每秒20兆字节,乘以60,000小时,乘以每小时3,600秒。这就是10的15次方字节,比170,000年的文本要多50倍。

是的,虽然这个语言模型编码了人类所有的知识历史,但一个四岁孩子所接收到的视觉信息仅仅包含了基本的世界三维信息、基础语言等内容。
但是,你说的是错的。绝大多数人类知识都不是以文字形式存在的。它们存在于你潜意识中,那些你在会说话之前就已经学到的东西。真正的知识主要与我们对世界的经验以及它是如何运作的有关。这就是我们所说的常识。然而,语言模型却没有这种常识,因为它们无法访问。
因此,它们可能会犯下很愚蠢的错误。这也是产生幻觉的原因。我们经常认为理所当然的事情对于计算机来说却是非常复杂的。因此,通用人工智能(AGI)或人类级别的人工智能(HLAI)不是近在咫尺,它们需要进行一些相当深刻的感知变化。
关于开源,你一直是开放研究的倡导者,而 Meta 则采纳了一项有效地开源其最强大的大型语言模型的政策,最近推出了 Llama 2。这种策略使 Meta 与不会发布其最强大系统权重的谷歌和微软有所不同。你认为 Meta 的这种做法在其人工智能变得越来越强大,甚至接近人类智能时是否仍然适用?
第一反应是肯定的。其原因在于,在未来,每个人与数字世界以及知识世界的互动都将由人工智能系统中介。
它们基本上将充当人类助手的角色,时刻陪伴着我们。我们将不再使用搜索引擎,而只会向我们的助手提问,它们将帮助我们应对日常生活。因此,我们的整个信息饮食都将由这些系统调节。它们将构成所有人类知识的存储库。而你不能依赖专有的封闭系统,特别是考虑到世界各地语言、文化、价值观和兴趣点的多样性。
这就好像你说,一个位于美国西海岸某处的商业实体是否能够制作维基百科一样?不可能。维基百科之所以众包创建,是因为这样做有效。因此,对于人工智能系统来说也是如此,它们将不得不在全球范围内得到每个人的帮助进行训练,或至少进行微调。人们只有在能够为广泛可用的开放平台做出贡献时才会这样做,而不会为专有系统这样做。
因此,未来必须是开源的,即使出于文化多样性、民主和多样性等原因。我们需要多样化的人工智能助手,就像我们需要多样化的新闻媒体一样。

人们经常提出的一个批评是,开源可能会使非常强大的工具落入那些可能会滥用它们的人手中。如果攻击与防御之间存在不对称性,那么这对整个社会可能非常危险。你是如何确定这种情况不会发生的?
关于这个问题有很多话都基本上是完全不切实际的。最近兰德公司发布了一份报告,他们研究了当前系统对恶意人士提供生物武器配方的难度。答案是:几乎没有。原因是因为当前系统并不是很聪明。它们是基于公开数据训练的。
因此,它们无法发明新东西。它们将会重新提取大约从公开数据中学到的任何东西,这意味着你可以从谷歌那里获取它。人们一直在说,“天哪,我们需要监管语言模型,因为它们可能会非常危险。”但这完全不正确。
未来的系统则是另一回事。也许一旦我们拥有一个超级聪明的强大系统,它们将会帮助科学、医学、商业,通过允许同时翻译来消除文化障碍等。因此,它们带来了很多好处。
因此,有一种风险收益分析,即:尝试保持技术不被滥用,以便坏人无法获取它,是否有生产力?还是战略上相反,尽可能广泛地公开它,以便进展尽快,以便坏人始终落后?我非常赞同后一种思路。需要做的是让整个社会,善良的人,通过进步保持领先。然后我的好人工智能对你的坏人工智能。
你曾称人工智能对人类构成“荒谬”的生存威胁。为什么?
这里有一些错误的认识。首先是因为一个系统智能,它就会想要控制一切。这是完全错误的。这甚至在人类中也是如此。最聪明的人并不想要统治其他人。我们在当今国际政治舞台上有一些例子——并不是我们中最聪明的人是首领。
当然。但最终掌权的是那些有统治欲望的人。
我敢肯定你认识很多非常聪明的人类,他们擅长解决问题。他们并不想成为任何人的老板。我就是其中之一。对于控制的渴望与智力完全不相关。
但它与统治相关。
好吧,但一些人类对统治,或至少影响力的驱动力已经被进化所编码,因为我们是一个社会性动物,具有等级组织。看看猩猩。它们不是社会动物。它们没有统治的驱动力,因为对它们来说这是完全没有用的。

这就是为什么人类是主导物种,而不是猩猩。
关键是,人工智能系统,尽管它们可能很聪明,但它们将屈从于我们。我们设定它们的目标,它们没有任何我们会将其编码到其中以统治的内在目标。将这种目标编码进去是非常愚蠢的。而且也是没用的。无论如何都不会有人购买它。
如果一个有统治欲望的人将这个目标编程到人工智能中呢?
那么,同样,就是我的好人工智能对你的坏人工智能。如果你拥有行为不端的人工智能,无论是因为设计不良还是故意的,你会拥有更聪明、更好的人工智能来对付它们。就像我们有警察或军队一样。
但警察和军队对使用武力拥有垄断权,在开源人工智能的世界中,你不会拥有这种权力。
你是什么意思?在美国,你可以在任何地方购买枪支。即使在美国的大部分地区,警察也有使用武力的法定垄断权。但是很多人都可以获得极其强大的武器。
进展得如何?
我觉得这对北美大陆居民的生活构成了比人工智能更大的危险。但不,我的意思是,我们可以想象所有种类的灾难场景。有数百万种方式来构建人工智能,它们可能是糟糕的、危险的、无用的。但问题不在于它可能走向灾难。问题在于它是否有可能走向正确的方向。
这将是一个漫长而艰难的过程,设计越来越强大的系统,并为它们配备安全防护栏,以使它们可靠、安全和有用。这不会一天之内发生。不会像有一天,我们会构建一台巨大的电脑然后打开它,然后它就会在下一分钟接管世界。这是荒谬的场景。
最后一个问题。我们应该从 Llama 3 期待什么?
嗯,很可能是更好的性能。视频多模态等等。但它还在训练中。

来源:TIME
转自:图灵人工智能
声明:此公号(ID:Fintech_Education)发布内容和图片的目的在于传播更多信息,版权归原作者所有,不为商业用途,如有侵犯,敬请作者与我们联系。

路过

雷人

握手

鲜花

鸡蛋

最新评论

联系客服 关注微信 下载APP 返回顶部