或许我真是个多愁善感的家伙。交代下周五和傻兮兮聊的人工智能话题。
我们从人工智能是否会在未来存在情绪展开,聊到情绪就意味着人情味,意味着人性,这当然是一个机器不该有的只能属于人类的特征。人类的大脑有感情中枢,所以有人性底线和情绪起伏的遏制,人类才会犯错或者知道自己错了。所有人都知道当错误大到一定程度时再有权势或扭曲的人也会选择放弃和自杀,比如希特勒。但人工智能没有情绪,它们的可怕之处可能就在于碰到问题会过于冷静,没有是非观没有情感底线是能让所有可以继续的事情以极端理性的方式进行到人类所有情感底线之外很远的。它不会意识到自己错的,除非人类一开始就把识别错误的智能写进代码里。可什么是对错,人工智能要如何取舍判断?这又会是一个没有尽头的故事。要么人类能时时掌控人工智能的每次升级和进步。
已经有专家在说,人工智能在设计编写上要充分体现程序员作为人的各种原则,可惜人类价值观多种多样,很难衡量界定清楚完善。
人类未来是否会对届时的高级人工智能失控?如果有一开始的人为作用让人工智能刻意隐藏自身实力怎么办?因为人类越来越仰赖人工智能认识自己,但人工智能不能从情感上区分不同生命体,这个一开始最基本起码的机器特征会否让人类反而越来越偏离自然的掌控?最后会有什么后果?还有那些初衷是拉近人类距离,方便彼此交流的人工智能软件会让人们越疏离还是越亲近?