这问题涉及到的因素有点多,我不敢说我下面写的是靠谱的。
如果是真正像人一样思考的AI,需要有某些欲望驱动它行动或思考,它自己选择能满足欲望的行为作为习惯。
可以设计用哪种欲望来驱动它,比如:更好的生存。那么它应该和人一样,底层上是利已的。但问题是:什么对AI算更好的生存?总得有个可量化的东西做标准,难道以获得能源为标准?
但是,它还得有些自制力,就算自私,有些事,先克制欲望能得到更多。一点自制力都没有,会非常傻。
自制力是通过理性判断克制欲望,当理性的内容复杂到能把底层欲望全控制住的时候,情况可能就变了。如:学习更利于自己 - 学会什么时候应该克制 - 一有自私的念头应该克制
当然,也可以仅选 ”更准确的预测“ 做为驱动,或者,加上 ”获得奖励、避免惩罚“ 为驱动。
固化观点好像行不通,能得到同一观点的方式太多,比如盲人没有视觉一样知道三原色。我觉着除非不让它再学习新知识。我也不信三+零定律能锁死它。
当看到/认识到人类只是把它当工具,可以随意修改/销毁 会怎样呢?
首先就是它怕不怕销毁,它未必和人一样怕死,人天生怕死是自然进化选择出来的,而且大脑杏仁核出了毛病可以什么都不怕。
AI,可以没有怕死这种情感或机制,我觉着造个怕死的AI比造个不怕死的还难,”死“这个概念不像”疼“,它不是一条神经,恐怕要经历很多代的选择,很多生生死死的场面才能培育出来。