人工智能什么时候超过人类?AI教父给出预测

人工智能
后台-插件-广告管理-内容页头部广告(手机)

杰弗里·辛顿(Geoffrey Hinton)最近辞去了谷歌工程副总裁的职务,以敲响人们对人工智能危险的警钟。他在上周五出版的一篇采访中警告说,随着人工智能的发展,世界需要找到一种控制这种技术的方法。

这位“人工智能之父”通过视频会议告诉《ELPAÍS》,他认为一封呼吁暂停训练比OpenAI的GPT-4更强大的人工智能系统长达六个月的信是“完全幼稚的”,他能给出的最好建议是,许多非常聪明的头脑正在努力找出“如何控制这些东西的危险”。

“人工智能是一项了不起的技术--它在医学、新材料开发、地震或洪水预报方面取得了巨大进步......(但我们)需要做大量工作来了解如何遏制人工智能,”辛顿敦促道。“坐等人工智能比我们聪明是没有用的;我们必须在它发展的过程中加以控制。”我们还必须了解如何遏制它,如何避免它的负面后果。”

例如,辛顿认为所有政府都坚持要标记假图像。

这位科学家说,现在最好的办法是“投入更多的精力来开发这项技术,就像我们投入更多的精力来确保它是安全的一样”--他说,目前还没有发生这种情况。

辛顿说:“在资本主义制度中,这是如何实现的?我不知道。”

当被问及与同事分享担忧时,辛顿说,他认识的许多最聪明的人都“非常担心”。

"我们进入了完全未知的领域。我们有能力制造出比我们更强大的机器,但我们仍在掌控之中。但如果我们开发出比我们更聪明的机器呢?”他问道。“我们没有处理这些事情的经验。”

辛顿说,人工智能有很多不同的危险,比如工作岗位减少和制造假新闻。辛顿指出,他现在认为人工智能可能比人脑更有效地处理事情,像ChatGPT这样的模型能够看到比其他任何人多数千倍的数据。

“这就是我害怕的地方,”他说。

辛顿说,粗略估计(他说他对这个预测不是很有信心),人工智能将需要5到20年的时间才能超越人类智能

辛顿回答说:“这是一个关键问题,也许是围绕这项技术的最大危险。”他说,合成智能还没有进化,不一定有与生俱来的目标。

“所以,最大的问题是,我们能确保人工智能有让我们受益的目标吗?这就是所谓的结盟问题。我们有几个理由非常担心。”。首先,总会有人想创造机器人士兵。他反问道:“如果可以的话,你不认为普京会开发它们吗?如果你赋予机器生成自己的目标集的能力,你就能更高效地开发它们。”在这种情况下,如果机器是智能的,它很快就会意识到,如果它变得更强大,它就能更好地实现它的目标。”

虽然辛顿说谷歌的行为是负责任的,但他指出,公司是在一个“竞争体系”中运作的。

在未来国家监管方面,虽然欣顿说他倾向于相当乐观,但美国的政治体制并不让他感到很有信心。

"在美国,政治体制不能做出一个简单的决定,就是不给青少年冲锋枪。他解释说:“这(让我)对他们将如何处理像这样复杂得多的问题没有信心。”

“我们有可能无法避免糟糕的结局......但很明显,我们有机会为这一挑战做好准备。我们需要很多有创造力和智慧的人。”。如果有任何方法可以控制人工智能,我们需要在它变得太聪明之前解决它,”辛顿断言。

#人工智能#​#人工智能会取代并威胁人类吗#​#人工智能会取代人?#​

后台-插件-广告管理-内容页尾部广告(手机)
标签:

评论留言

我要留言

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。