2月21日,一份由25名技术与公共政策研究员共同发布的报告指出,快速发展的人工智能(AI)被恶意利用的风险呈上升趋势,一旦遭黑客攻击,或酿成无人驾驶的车祸,商业无人机也可能变成有针对性的武器。
参与这份报告的撰写者包括来自剑桥、牛津和耶鲁大学的25位技术与公共政策研究人员,以及隐私和军事专家。报告旨在就可能发生的滥用人工智能行为敲响警钟。
研究人员表示,基于对五年内人工智能技术发展进程的预估,其认为恶意使用人工智能会对数字、物理和政治安全造成迫在眉睫的威胁,因为它可能被利用来实施大规模的、极具针对性的高效攻击。
“我们都同意,人工智能可以有很多积极的应用。”牛津未来人类研究所研究员Miles Brundage表示:“但围绕恶意使用人工智能问题的文献少得多。”
人工智能一般使用计算机执行通常需要人类智能的任务,例如做出决定或识别文本、语音或视觉图像。
人工智能被认为是实现各种技术可能性的一股强大力量,但它已经成为了学界激烈争论的焦点。争论涉及的问题主要在于,通过人工智能实现的大规模自动化是否会造成大规模失业和其他社会混乱。
而这篇98页的文章警告称,通过使用AI来完成原本可能需要人力和专业知识才能完成的任务,或将降低攻击的成本。未来可能会出现新的攻击,单靠人类独自开发或利用AI系统本身的脆弱性是不切实际的。
报告综述了大量关于人工智能造成安全风险的学术研究,并呼吁各国政府和政策及技术专家通力合作,一同化解此类危险。
研究人员详细介绍了人工智能生成合成图像、文本和音频的能力,它可以被用来在网络上模仿他人行为,以左右舆论。报告提出的建议包括将人工智能作为军用和商用两种用途的技术来进行管理。
报告还提出了问题——学者是否应该对其发表和披露的有关人工智能新发展的内容有所保留,是否应该在该领域的其他专家研究并找到应对潜在危险的方法后,再将结果公之于众。
“我们最终得到的问题比答案多得多。”Brundage说。
这篇论文诞生于2017年初的一次研讨会上,自那以后,其中一些预言基本上成真了。作者们当时预测,人工智能可以用于制作极度仿真的政府官员音频和视频,从而用于宣传目的。
而去年年底,一些仿真的色情视频开始在网上流传,一些名人的面孔被嫁接到不同的身体上,有些效果可以以假乱真。
特拉斯公司首席执行官马斯克和硅谷投资者萨姆·阿尔特曼创立的OpenAI组织政策主管杰克·克拉克表示:“虽然它现在被用在了色情行业,而非政治宣传,但是,这一技术被应用于后者也不是不可能。”
评论留言