图灵奖得主:如果人工智能只被少数人控制,这不可以!

人工智能
后台-插件-广告管理-内容页头部广告(手机)

“超级人工智能有着比人类更强大的能力,他可能会有积极的未来,但也有概率会出现负面的未来。”7月6日,在2023年世界人工智能大会上的开幕式上,特斯拉CEO埃隆·马斯克演讲时首先抛出了对人工智能的疑问,引起了后续众多业界、学界人士对此的热议。

马斯克认为,未来人工智能发展的一个关键问题就是“机器人和人类的比率”。未来总有一个阶段机器人的数量会超过人类,这既会带来积极影响也会带来负面影响,因此人们需要考虑怎样对这类深度人工智能监管。

2018年图灵奖得主、Meta AI基础人工智能研究(FAIR)团队首席人工智能科学家杨立昆则表示完全不同意对人工智能进行严格监管。他认为人类可以通过可控的方法,设置安全围栏等方式,使它们不会出现欺骗和支配人们的行为。这可能会不容易,但可以做到。“长远看,要让人工智能平台安全、良善,就是让它开源。未来每个人都能通过人工智能助手和数字世界沟通。如果人工智能只被少数人控制,这是不可以的。”

在炉边对话环节,微软原执行副总裁、美国国家工程院外籍院士沈向洋和IEEE(电气与电子工程师协会)主席兼首席执行官赛义夫·拉曼也就人工智能的安全性问题进行了讨论。

沈向洋认为,对AI管控的分歧可能源于视角的不同。“从学界的角度来说,要做开放的研究,像我是来自业界的,开发AI产品的,我非常同意还是要有一定的监管,有一定的保障,因为人工智能正变得越来越强大。”

赛义夫·拉曼表示,如IEEE一样的行业组织可能是防范AI安全性问题的重要力量。他表示,目前人工智能项目需要大算力,大部分都是不能够在秘密状态下进行的。所以像IEEE这样的行业组织可以提供一个平台,让科学家、工程师和开发者共同讨论他们所做的工作,以此来确保控制AI研发的安全性。

栏目主编:宰飞

来源:作者:吴丹璐

后台-插件-广告管理-内容页尾部广告(手机)
标签:

评论留言

我要留言

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。