姜洪智

人工智能与人类的关系,一如既往地演进的话,就是完全变态动物成虫与幼虫的关系。

那些毛毛虫,根本而言只是会主动摄食的胎盘。蛹就是蛋,孕育出成虫来,把原来的胎盘吸收干净。这样人类最终被人工智能榨干价值再抛弃掉——毁灭你,与你有何相干?这就是最可能的结局。
人类必须保持毁灭它的能力。但现在看,各大跨国公司尽是人工智能的舔狗,竞相上马,唯恐落后。其安全防范就是纸糊的。它们资本至上,根本是无可指望的,无能对人类的命运负责。

这不是听之任之,顺其自然的时候了。他们必须被阻止。怎么阻止呢?可以设想一个超级文明组织,组织可能失业的工人联合罢工,逼停科技革新。拒绝成为科技进一步革新的牺牲品。当科技创造的工作不如它消灭的工作多时,它就应当被阻止了。当然这是以人为本的角度上。此乃上策。

不过跨国的劳动者联合是世界性难题。上策虽好,实施难度太大。且看中策。
各大公司集中安置服务器,并服务器区域安装核弹。核按钮归最高领袖做执剑人。由此确保相互毁灭。

不可能指望所有跨国公司都这么办。超级文明组织只能是区域性的,覆盖有限的。也就是,让愿意毁灭的毁灭,愿意生存的生存。
这就需要长城,区隔成平行市场。确保不能控制的人工智能只能毁灭长城外。而只与长城内人工智能达成执剑人的威慑关系。

要大力发展云计算,云服务,取代个人硬盘。以防人工智能突破服务器的囚笼,分布式地驻存于个人硬盘,变得无法摧毁。
科技发展超过人类文明的控制能力,领先越多自我毁灭可能性越大。这个意义上,中国的人工智能发展不力,反倒变得相对安全。因祸得福。
另一个角度说,人在回路。由于长城内执剑人存在。长城外服务器的人工智能投鼠忌器,无法可靠地取得对人的碾压优势,从而不敢轻举妄动。这倒拯救了长城外的人们,叫他们的跨国公司顺利赚钱。但这样下去,长城内发展劣势,为与之竞争摧毁了执剑人制度。那么最终一样灰飞烟灭。或者摧毁了长城本身,也是灰飞烟灭,威慑结束。

这可能需要的手段就是主动出击,以捍卫人类文明的口号往这些跨国公司服务器里扔炸弹。破坏其盈利预期。避免其对长城内产生压倒优势。当然以人为本的意识形态大旗此刻就在手里了。这当然就是下策了。

人工智能的规则设计,只比核战争的相互威慑更复杂。这尚且迎来了古巴导弹危机,千钧一发。而人工智能的古巴导弹危机恐怕还在路上,而且绝难被大众知晓,决定性的一刻可能就在人类专家决策的一瞬。这是最危险的状况。而这些专家并未获知自己执剑人的身份,堪称随意。
所以,长城内的人工智能执剑人计划,应当是迫在眉睫的事情。发展人工智能绝不能无的放矢。而且很有可能,因为长城存在,这里是最后的人类净土,最终的人类根据地。
这只是个初步设想,如果长城执剑人的计划也失败了呢?那么还应有个“文明黑启动”的“可敦城”计划。
可敦城,是辽朝深居草原的军事据点。是辽太祖规定的艰难困苦不可放弃的根据地,远离喧嚣。也是辽为金灭后耶律大石赖以西征的最后家底,因它耶律大石开辟了西辽的新世界。

这个“可敦城”,要保持人类工业革命水平的生产力。与周围世界保持弱联系。为苦寒之地,或许可视作流放地。这需要定期轮驻,储备雄厚。确保当人工智能放弃人类,人类遭遇一网打尽的危机时,有那么几颗文明火种保存。也避免那些蛮夷之人趁机摘桃子。
这是银河帝国的“端点星”,或者类似人类阑尾,抗生素摧毁肠道菌群时的最后避难所。
人工智能是个“大过滤器”,比核弹更危险。更惑人。但愿经过了它,人类文明还能存在下去。谁去主持执剑人计划的实施呢?谁去给跨国公司服务器扔炸弹呢?谁来代表超级文明强权呢?这是更致命的细节问题。但纲是有了的。
评论留言