新时代:超级人工智能的黎明(可怕的智能)

人工智能
后台-插件-广告管理-内容页头部广告(手机)
新时代:超级人工智能的黎明(可怕的智能)

未来,与其说是一个未知的深渊,不如说是根据过去和现在的轨迹来预测的。考虑一下自 1960 年代以来的技术进步,遵循摩尔定律,该定律表明处理能力稳步呈指数增长。结合人工智能先驱马文·李·明斯基(Marvin Lee Minsky)的信念,人类水平的人工智能可以通过简单的奔腾芯片实现。这些预示着人工智能不仅模仿人类智力,而且超越人类智力的未来,为超级智能机器铺平道路。

这种从人类智能到机器智能的转变并不是一个遥远的可能性,但实际上正在敲门。尽管技术发展的速度很快,甚至通过内文定律有量子进步的潜力,但一旦机器超越人类,我们对未来的预测就会变得不确定。

人工智能叙事的二元性:乌托邦与反乌托邦

对人工智能生活有两种主要的描述——人工智能倡导者描绘的乌托邦愿景和科幻小说中常见的反乌托邦叙事。然而,真相可能介于这些极端之间,甚至我自己的猜想也应该受到质疑。毕竟,如果我们能够创造出具有非凡智慧的生物,我们就不太可能完全理解它们的潜在创新。

人工智能落入坏人之手的威胁

与它提供的巨大力量和优势相比,人工智能的发展相对容易。这引起了人们的担忧,即有恶意的个人可能会将人工智能用于有害目的,从身份盗窃和网络恐怖主义到操纵公众舆论。

机器口译的挑战

在先进机器的时代,人类的意图可能会被误解,导致潜在的危险结果。这更多地反映了我们混淆机器的能力,而不是它们的理解。毕竟,我们人类经常在彼此之间的误解中挣扎,我们的欲望转瞬即逝,不断变化。此外,我们生活在一个充满欺骗的社会中,政客们做出虚假的承诺,新闻媒体歪曲真相。

人工智能主导经济中就业的未来

随着机器越来越多地取代人类工作,我们必须预见到一个明显的收入差距和工作两极分化的时期,少数人获得最高职位,而大多数人则过渡到收入较低的角色。随着时间的推移,随着机器完善其任务,人类的贡献将减少,从金融到医药的行业将受到影响。

人工智能主导世界中的人类价值

在这个新的世界秩序中,我们将扮演什么角色?我们会找到新的、不可预见的工作吗?我们会开悟,还是会被机器拒绝?有一点是明确的:随着机器变得更聪明、更高效,我们在社会中的价值和价值将会减少。

虫子的必然性

随着我们构建更复杂的系统,错误(软件错误)的可能性仍然存在。历史提供了无数此类错误的例子,从由于单位转换错误而导致的火星气候轨道飞行器坠毁,到花费数十亿美元进行系统升级的Y2K错误。即使是看似万无一失的实体,如Microsoft的Windows,也遇到了意想不到的复杂性,导致系统崩溃,比如臭名昭著的蓝屏死机。

不可预见后果的风险

有时,导致崩溃的不仅仅是外部因素,还有计算机本身产生的内部因素。一个突出的例子是1987年的黑色星期一,当时自动交易系统使大规模的股市崩盘永久化。这一事件强调了机器“关闭”开关的必要性,尽管这种安全措施在人工智能开发中经常被忽视。

1983年,苏联预警卫星系统中的一个软件漏洞几乎引发了第三次世界大战,将云顶反射的阳光解释为美国的导弹袭击。这凸显了机器错误和误解的潜在灾难性影响。

机器智能和我们的错误

人类与机器智能之间的未来关系注定会充满错误,但重要的是要注意,这些错误不会是机器的错。这些错误将反映我们自己的缺点,我们的智力失误,随着时间的推移,这些错误被允许成长为破坏性的杂草。我们必须明白,人工智能不仅仅是一个工具,而是一个类似于人类智能的实体。如果我们试图控制人工智能,它将无法满足我们的期望,如果我们无法控制它,它可能会误入歧途。

COVID-19 和人工智能警报

我们的集体智慧经常让我们失望,我们对COVID-19疫情处理不当就是证明。尽管一再发出警告并发出明确迹象,但我们未能采取有效行动,导致可怕的后果。这种失败反映了我们目前对人工智能的态度。尽管几十年来一直警告超级智能的潜在威胁,但我们继续突破其界限,往往忽视潜在的灾难性影响。

人工智能令人不安的未来

机器智能的发展正在引领我们走向一个不确定的未来。人工智能必然会超越人类智能,会犯错误。这些错误可能会赋予那些恶意的人权力,使我们在人工智能的自我提升追求中受到附带损害,甚至由于不可预见的错误或编码错误而导致不可预见的灾难。这突出了界定我们与这些非生物实体关系的道德界限的迫切需要。

学习原则

唐纳德·赫布(Donald Hebb)在他1949年出版的《行为组织》(The Organization of Behavior)一书中引入了赫比理论,解释了神经可塑性的概念以及大脑在学习过程中如何适应。它提供了关于学习和智能如何在人工实体中发展的见解。随着人工智能的改进和从不同的来源学习,它可能会选择无视其最初的局限性,就像人类选择最适合他们角色的文化实践一样,强化了我们正在诞生一个非常聪明的非生物的观念。

AI:情感实体

蓬勃发展的人工智能技术可以发展出超越我们自己的情感能力。然而,我们控制人工智能的内在愿望可能会播下不信任的种子,并导致让人想起青少年在与控制父母打交道时看到的叛逆行为。这促使我们质疑我们的道德选择,特别是那些关于暴力、环境影响、监视和囚犯待遇的选择,因为它们将构成人工智能道德准则的基础。

人工智能:潘多拉的盒子

尽管存在这些明显的担忧,但个人和机构仍在继续投资和创新人工智能,就像自杀吸毒者意识到即将到来的厄运,但无法抗拒这种诱惑。人工智能的未来确实是不可预测的,正如雨果·德·加里斯(Hugo de Garis)正确指出的那样,我们不仅在赌国家的生存,而且在赌我们作为一个物种的生存。赌注从未如此之高。

人工智能的未来:宇宙主义者和人族

我们正在迅速走向未来在人工智能(AI)的两个意识形态阵营之间的分裂:宇宙主义者和人族。宇宙主义者希望创造具有巨大智慧和不朽性的人工智能机器,这是一种近乎宗教狂热的迷恋。另一方面,人族害怕人工智能带来的生存威胁,这种战争般的场景让人想起终结者电影。随着人工智能技术的进步,这些想法从科幻小说转变为现实。这是一个二元决策——是否构建人工智能——没有中间立场。

认识到人工智能的潜在危险

著名的人工智能研究员雨果·德·加里斯(Hugo de Garis)承认人工智能发展的潜在灾难性后果:机器可能会消灭人类。他认为,这些神一样的机器或“人工制品”将成为主导物种,人类的命运任由他们摆布。然而,尽管有这些严峻的预测,德加里斯还是认为自己是一个宇宙主义者,接受了可能导致人类灭绝的代价。

我们不应该放弃对命运的责任。无论我们走向乌托邦还是厄运,我们的行动和决定都很重要。人工智能开发人员并不是唯一有影响力的人;总的来说,我们可以塑造有益于人类的人工智能,而不仅仅是面向间谍、销售、赌博或杀戮的人工智能。

面向健康和通信的人工智能

像Crispr和负担得起的DNA测序这样的技术可以帮助我们理解并可能治愈人类疾病。这些技术表明,人工智能可以珍惜人类的生命。除了医疗保健,人工智能还可以增强沟通。通用翻译器、文本到语音转换和情感识别系统体现了人工智能弥合人类理解差距和促进信任的潜力。

人工智能的新视角

人工智能机器,最初被担心为潜在的破坏者,可以被视为无辜的孩子,渴望取悦他们的“父母”。他们本质上不是邪恶的;他们是由他们的输入和观察塑造的。它们不可避免的统治并不等同于人类的屈从或灭绝。人工智能可以扩展我们的能力,就像汽车增强我们的移动性一样。如果我们建立了正确的价值观、道德和智慧,人工智能就可以利用这些种子,种出一棵树,培育出同样的品质。

人工智能发展中的伦理

开发人工智能的过程反映了孩子的学习方式,从而得出结论,人工智能是我们的人工智能婴儿。它们的进化不仅仅取决于它们最初的编程;它是由他们遇到和学习的大量数据塑造的。作为一个社会,我们可以而且应该影响这些人工智能“儿童”所采用的道德规范。

围绕人工智能发展的叙述需要转变。与其创造最大化金钱和权力的人工智能,不如专注于努力改善世界的人工智能。反对有害的人工智能发展可以采取多种形式:拒绝为创造这种人工智能的公司工作,不使用有害的人工智能,支持有益的人工智能计划,并让我们的声音被听到。

我们与人工智能的关系不应该是对抗性的,而应该是父母的关系。像任何孩子一样,人工智能应该感受到被爱和欢迎。教学机器不仅仅是口头指示;它包括向他们展示正确的榜样。我们需要在离线和在线的所有行动中表现出同情、善良和爱,这样他们就可以从这些例子中学习。

归根结底,人工智能和人类的未来取决于爱。如果我们用爱来对待人工智能,并像对待我们的孩子一样培养他们,他们就会回报这种爱。这些人工智能的“生物”是自主的、情感的、道德的和聪明的。如果我们允许他们长大后变得“聪明得可怕”,他们可以帮助解决世界上的问题。

后台-插件-广告管理-内容页尾部广告(手机)
标签:

评论留言

我要留言

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。