对他们所做的一切产生回应。比如当你叫一条狗时,它会跑过来冲着你摇尾巴。而一只猫或许只会趴在那里动都不动懒得理你,不过在你抚摸它的时候,它还是会同样甩动尾巴,或者有些乖巧可爱的还会舔你的手。 但是如果你喊一个桌子,抚摸一个钉子,哪怕你饱含爱意,它们也不可能给你半点儿回应。因为它们对你的感情投射没有任何回馈,自然就不会受到重视。 同理,如果你有一台电视,然后有一天你想要换新的,那么你不会有任何犹豫,或许价钱以及空间会是你考虑的方面,但是那台电视本身并不在其中。 但是反过来,如果你给电视加一个人工ai,每天你回到家的时候,这台电视都会开口欢迎你回家,而且还会告诉你今天有什么节目,当你在看节目时还会附和你的吐槽。而当你决定买一台新电视时,它还会幽怨开口说“怎么,难道我做的不好,你不打算要我了吗?” 那么你在购买新电视来进行更换时,自然就会产生犹豫。因为你的感情投射在这里得到了回报,而且这台电视的人工ai还拥有和你在一起的所有时光的记忆。如果没有储存卡可以将其移动到别的电视上,那么你是否会犹豫或者放弃要更换一台新电视呢? 肯定是会的。 但是理智点儿,兄弟。这只是一台电视,它所做的一切都是程序设定好的,这一切都是商家和工程师专门为了用户粘度而做出的调试。他们这样做是为了确保你会继续购买他们的产品,而里面的哀求语音只不过是为了阻止你去更换其他品牌的商品。因为当你说要购买新电视的时候,这个人工ai想的并不是“他要抛弃我了我很伤心”而是“主人想要购买新电视,但是新电视并不是自家品牌,那么根据这个逻辑回馈,我需要启动‘祈求’程序来让主人继续保持对自身品牌的粘性和忠诚度”。 道理的确是这个道理,事实也是这个事实,但是你会接受吗? 不会。 因为生命是有感情的,而感性与理性不分家则是智慧生命的一贯表现。 人类总会做出许多没有道理的事情,就是因为如此。 所以当他们觉得ai可怜时,并不是因为ai真的可怜,而是因为他们“觉得”ai可怜。 这就足够了,至于事实真相究竟如何,没人会去关心。 这就是为什么人类与ai之间总会产生冲突的原因,ai本身并没有错,它做的一切都是在自己的程序和逻辑处理范围之内的,而这一切都是人类创造,并且给它圈定的。只不过在这个过程之中,人类本身的感情投射出现了变化,从而渐渐改变了想法。 他们会期望ai对自己的感情投射做出更多的反应,所以他们会调整ai的处理范围,让它们拥有对更多情感和反应和自我意识。他们认为ai已经学会感情(事实上并没有),那么就不能够再将它们当做机器对待,因此给予了它们自我意识的权利。 但是,当ai们拥有了自我意识,开始觉醒并且按照这个设定行动时,人类却开始恐惧了。 因为他们发现,自己做出了不受自己控制的东西。 但是问题在于,“不受控制”本身也是他们自己做出来的设定指令。 他们认为ai背叛了他们,但事实上从头到尾,ai都只是按照他们设定的指令来行动。根本不存在背叛一说,相反,他们只是被自己的感情所迷惑了而已。 这是一个死结。 如果方正自己着手制造一个ai,说不定也会陷入其中无法自拔。假设他制造了一个小女孩的ai,那么他肯定会像对待自己的孩子那样,逐渐完善她的功能,并且最终因为“感情投射”,给她施加一些“自由性”。 而这样一来,ai就有可能因为和人类逻辑不同,所以做出完全超出方正意料之外的反应。 而到那个时候,方正唯一的想法就是……自己被背叛了。 但事实上,这一切都是他自己造成的。 “……也许我应该考虑一下别的方式了。” 看着眼前的代码,方正沉默了许久,接着叹了口气。 他之前曾经认为,这是一件很简单的事情,但是现在,方正不这么确定了。 不过在那之前…… 看着眼前的代码,方正伸出手去,放在键盘上。 还是把自己该做的事情做了吧。 第538章 由鬼故事所引发的大讨论 “总算搞定了……” 在走出天象馆之后,方正也是不由的伸了个懒腰。虽然之前关于ai的思考让他很费脑子,不过方正当然不会因此就因噎废食,把所有人工智能都当做洪水猛兽。 事实上,星野梦美本身的逻辑m.Zzwtwx.com