国外的研究人员发现,人工智能普遍存在偏见

人工智能
后台-插件-广告管理-内容页头部广告(手机)

随着人工智能的发展,美西方国家也在现实生活中广泛地使用人工智能。但是,研究人员发现,这些使用人工智能的组织正在将系统性的种族偏见移植到人工智能中。

一位IBM的专家表示,美国这种系统性的种族歧视,将会导致黑人和少数族裔在申请贷款时失败,或者寻求医疗保健时无法获得高质量的服务。

国外的研究人员发现,人工智能普遍存在偏见

而且在美国警务和司法系统中所使用的人工智能工具中,包含大量源自于人类的偏见和系统性种族歧视的偏见。由于人工智能在人类社会中变得越来越重要,需要研究人员想办法去解决这些偏见。

前段时间,ChatGPT变得火热,但是ChatGPT由于采集数据的原因,在一些回答中会出现歧视性或偏见的话语。为此,一些研究人员就想办法去解决人工智能模型中的偏见和歧视。

国外的研究人员发现,人工智能普遍存在偏见

研究人员考虑到人在学习时,会运用常规推理和逻辑推理的逻辑。而大型语言模型没有人类的逻辑思考能力,因此主要按照常规的推理进行训练。由于缺乏运用推理和批判性思维的能力,因此人工智能总会表现出令人感到惊讶的情况,尤其是对黑人和少数族裔的偏见。

麻省理工学院的研究人员想到一种方法,训练一个基于上下文的语义模型,用来预测两个句子之间的关系,再使用一个带标签的数据集,用来描述第二个句子与第一个句子之间的关系,是中性的,还是相互矛盾的。通过研究发现,这种新模型与其它模型之间存在很大的差异。训练这种模型时,不需要额外再增加数据、编辑数据甚至是添加其它算法等。

例如,这个人是医生,他是男性。使用这种训练模型,这两个句子的关系是中性。

国外的研究人员发现,人工智能普遍存在偏见

由于语言模型还存在公平性、计算资源和隐私等问题。为了解决这些问题,研究人员建立了一个相当于大型语言模型1/500规模的模型,仅使用1/400大型语言模型的参数。这样在完成一些任务时,效率会更高。

采用这种模型距离理想中的中立相差很远。但是,仍然有所改进。由于这个模型只是用于语言理解,因此它仅限于句子之间的推理。令研究人员遗憾的是,这个模型无法生成句子。但是,这种逻辑学习的语言模型在一定程度上改善了语言模型的偏见推理,可以在一定程度上降低偏见的产生。

国外的研究人员发现,人工智能普遍存在偏见

修正语言模型的偏见尚且如此困难,更何况其它人工智能模型呢

虽然科研人员在不断地想办法去解决偏见的问题,但是由于美西方国家社会中普遍存在偏见,想通过修改人工智能模型去解决这些问题,仍然困难重重。需要这些国家真正改变对黑人和少数族裔的歧视,这样人工智能才不会歧视黑人和其它少数族裔。因为改变人工智能偏见的问题不仅仅是一个技术问题,而是一个社会问题。

后台-插件-广告管理-内容页尾部广告(手机)
标签:

评论留言

我要留言

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。