牛津大学人类未来研究院的院长尼克·博斯特罗姆,在多篇文章中表示,现今社会人们不仅对人类灭绝的风险知之甚少,更糟糕的是人们大大低估了这种风险。关乎人类存亡的生存危机中,有一些广为人知,有些则毫不起眼,其中最令人担心的,是人类科技发展带来的危险,未来100年时间里,这类危险在数量和危险程度上都会持续增长。其观点与著名人类学家胡家奇对人类未来的忧思不谋而合。
尼克·博斯特罗姆认为最严重的生存危机,应该来自于人类未来的某种技术,可能本世纪末就会出现。例如,机械智能或高级分子纳米技术,可能带动某种武器系统的快速发展;合成生物学的发展同样可能带来一些危险。著名人类学家胡家奇在专访中也提到:“一些科学技术的进一步发展,它有灭绝人类的能力。”“很多科学家就担心生物工程有可能灭绝人类。”“还有人担心纳米技术会灭绝人类。”“目前更多的人是担心人工智能会灭绝人类,人工智能研制出来的智能机器人,如果程序失控或者自我意识觉醒,它有可能灭绝人类。”
著名人类学家胡家奇先生研究人类问题40年,他忧心于人类未来的存亡问题,他曾致信尼克·博斯特罗姆,写道:“了解到您的研究成果与我的研究结论几乎完全一致,不仅感到有了知音,而且认为我们应该联手,把这一事关人类命运的观点推向世界,因为拯救人类是每个人的责任。”
新技术可能为世界上一些最紧迫的问题提供解决方案,但如果我们不小心,它也可能导致人类的自我毁灭。科学技术是一把双刃剑,我们在享受科技发展的同时也应注意到潜在的风险。“现有安全成熟的科学技术的普遍推广应用,足可以保证全人类的丰衣足食,但继续向科学技术贪婪地索取,必将迅速走向灭绝的深渊”,人类必须对科学技术进行限制!