霍金生前大胆预言“超人”种族
2018/11/05 | 作者 《星期日泰晤士报》 | 收藏本文
在于10月16日出版的《重大问题简答》一书中,霍金毫不留情地评论了诸如地球面临的最严重威胁、机器占领主导地位以及外太空可能存在智慧生命等问题。
霍金对规范管理人工智能的重要性提出了严重警告,指出“未来人工智能可能形成自己的意志,与我们人类相冲突的意志”。他在书中写道,应当制止可能出现的自动武器军备竞赛,提出如果发生类似于2010年股市闪电崩盘那样的武器崩盘,其后果将会如何的疑问。
他接着写道:“总之,对人类来说,超级智慧的人工智能的出现不是福就是祸,二者必居其一。人工智能的真正危险并非在于恶意,而是在于能力。超级智慧的人工智能将极其擅长实现目标。如果这些目标与我们不一致,那我们就麻烦了。你可能不是出于恶意而踩死蚂蚁的那种邪恶的仇恨蚂蚁的人,但是如果你负责一项水利环保能源项目,而洪水淹没地区有一个蚁丘,那么蚂蚁就惨了。我们别让人类陷入蚂蚁的境况。”
坏消息是:未来1000年的某个时刻,核战争或环境灾难将“严重破坏地球”。可是,到那时,“我们的天才种族将会已经发现摆脱地球粗暴束缚的办法,因此能够战胜灾难”。不过地球上的其他物种可能做不到。他说,成功逃离地球的人很可能是新“超人”,他们利用诸如“规律成簇间隔短回文重复系统(CRISPR)”这样的基因编辑技术超过其他人。
霍金似乎对最后一点尤为感兴趣。他写道:“已经没有时间留给达尔文的进化论来提高我们的智力、改善我们的天性了。一旦出现这种超人,未经基因改造而提高能力的人必将遇到重大政治问题,他们无力竞争。也许他们会绝种,或变得可有可无。不过,将出现一种不断加速改进的自我设计人类。如果这种人类种族设法重新设计自己,它很可能扩散开来,殖民其他行星和星球。”
有关为何尚未发现智慧生命或是智慧生命没有造访地球这类问题,霍金承认有各种各样的说法。对此,他的预言并不那么大胆,但他首选的解释是:人类“忽视了”外太空智慧生命的形式。问题是:宇宙形成的方式究竟是上帝出于我们无法理解的原因选择的呢,还是由科学法决定的?如果你愿意,你可以称科学法为“上帝”,但不是那种你会遇到并提出问题的那种人格化凡身上帝。
头号威胁就是小行星碰撞,类似那种导致恐龙灭绝的碰撞。可是,霍金写道:“我们(对此)无法防御。”更直接的威胁是气候变化。“海洋温度上升将融化掉冰冠,释放出大量二氧化碳。双重效应可能导致我们的气候类似于金星,气温达到250摄氏度。”
霍金的最后担忧是:操纵DNA将催生超人优等民族。这位已故物理学家认为这可能毁灭人类。他担心富人不久将能够编辑子女的DNA,提高记忆和疾病免疫力。霍金还说:“即使政治家设法用法律禁止这种做法,它仍将对世界其他人群构成危机。”他还谈到了普通人:“他们可能会绝种,或沦为可有可无。”
相关报道