最新的一则新闻震惊到了我,因为AI带来了令人不安的东西,让所有人可能无法淡定面对的东西——死亡。
来自丹麦和美国的科学家开发了Life2vec,在预测死亡方面,“我们关注早期死亡率。因此,我们选择了 35 到 65 岁之间的非常年轻的队列。然后,我们试图根据2008年至2016年的八年时间预测一个人是否在随后的四年内死亡,“丹麦技术大学(DTU)教授Sune Lehmann说。
“这是一个非常通用的框架,用于预测人类生活。它可以预测任何你有训练数据的东西,它可以预测健康结果。因此,它可以预测生育能力或肥胖率,或者你可以预测谁会得癌症,或者谁不会得癌症。但它也可以预测你是否会赚很多钱“。
该计划采用了类似于 ChatGPT 的方法,但研究了影响生活的因素,如出生、教育、社会优势,甚至工作时间表。该小组正试图通过修改使语言处理算法成为可能的进步来“根据详细的事件序列检查人类生活的进化和可预测性”。根据一种观点,生活只是事件的集合 - 人们出生,去看儿科医生,开始上学,搬迁,结婚等等,Lehmann补充道。
“目前,这是一个研究项目,我们正在探索什么是可能的,什么是不可能的,”Lehmann说。
2018年,斯坦福大学的Andrew Ng团队开发了一种使用人工智能来预测病人死亡时间的系统,准确率高达90%,虽然这个想法让人感到不安,但是研究团队说,它可以极大改善病人及家属的临终关怀行动。由于能够更加准确的预测出一个临终病患的死亡时间,护理人员可以优先考虑他们的愿景,从而确保重要的交流能够在为时未晚时进行。
或许这些研究有其所能获得的积极意义,但是不得不说,涉及到死亡预测时,我们必须认真考虑伦理和道德问题。这是一个复杂而敏感的领域,需要综合考虑科技、个人权利和社会利益之间的平衡。
我们至少要在道德上考虑一些不得不考虑的原则,比如知情权和自主权,个体有权知道与自己相关的信息,但也有权选择不知道。死亡预测可能对个体的心理和情感产生深远影响,因此应该尊重个体的知情权和自主权。
在使用AI技术进行死亡预测时,开发者和使用者应该审慎行事,慎之又慎。我们需要建立明确的伦理框架,确保技术的应用不会加剧社会不公或侵犯个人权利。AI模型应该具有透明度和可解释性,以便个体了解预测的基础和依据,透明度有助于建立信任,但也需要平衡隐私和知情权。
死亡预测可能对个体和家庭产生深远影响,也可能对社会产生影响,我们需要权衡个体的利益和社会的整体利益。
在法律上,我们也需要建立法规和监管机制,确保AI技术的应用不会滥用或侵犯个人权利,法规应该明确规定AI技术的使用范围、限制和责任。
不管如何,无率是死亡预测还是赚钱预测,都带来一个很大的社会问题,就是我们到底应该用AI为我们带来什么?我们使用AI开发产品的初衷是什么?这或许是我们亟需思考并付诸于建立AI责任体系的一个重要基础。
评论留言