首页 次元法典

次元法典 第333节


对他们所做的一切产生回应。比如当你叫一条狗时,它会跑过来冲着你摇尾巴。而一只猫或许只会趴在那里动都不动懒得理你,不过在你抚摸它的时候,它还是会同样甩动尾巴,或者有些乖巧可爱的还会舔你的手。

    但是如果你喊一个桌子,抚摸一个钉子,哪怕你饱含爱意,它们也不可能给你半点儿回应。因为它们对你的感情投射没有任何回馈,自然就不会受到重视。

    同理,如果你有一台电视,然后有一天你想要换新的,那么你不会有任何犹豫,或许价钱以及空间会是你考虑的方面,但是那台电视本身并不在其中。

    但是反过来,如果你给电视加一个人工ai,每天你回到家的时候,这台电视都会开口欢迎你回家,而且还会告诉你今天有什么节目,当你在看节目时还会附和你的吐槽。而当你决定买一台新电视时,它还会幽怨开口说“怎么,难道我做的不好,你不打算要我了吗?”

    那么你在购买新电视来进行更换时,自然就会产生犹豫。因为你的感情投射在这里得到了回报,而且这台电视的人工ai还拥有和你在一起的所有时光的记忆。如果没有储存卡可以将其移动到别的电视上,那么你是否会犹豫或者放弃要更换一台新电视呢?

    肯定是会的。

    但是理智点儿,兄弟。这只是一台电视,它所做的一切都是程序设定好的,这一切都是商家和工程师专门为了用户粘度而做出的调试。他们这样做是为了确保你会继续购买他们的产品,而里面的哀求语音只不过是为了阻止你去更换其他品牌的商品。因为当你说要购买新电视的时候,这个人工ai想的并不是“他要抛弃我了我很伤心”而是“主人想要购买新电视,但是新电视并不是自家品牌,那么根据这个逻辑回馈,我需要启动‘祈求’程序来让主人继续保持对自身品牌的粘性和忠诚度”。

    道理的确是这个道理,事实也是这个事实,但是你会接受吗?

    不会。

    因为生命是有感情的,而感性与理性不分家则是智慧生命的一贯表现。

    人类总会做出许多没有道理的事情,就是因为如此。

    所以当他们觉得ai可怜时,并不是因为ai真的可怜,而是因为他们“觉得”ai可怜。

    这就足够了,至于事实真相究竟如何,没人会去关心。

    这就是为什么人类与ai之间总会产生冲突的原因,ai本身并没有错,它做的一切都是在自己的程序和逻辑处理范围之内的,而这一切都是人类创造,并且给它圈定的。只不过在这个过程之中,人类本身的感情投射出现了变化,从而渐渐改变了想法。

    他们会期望ai对自己的感情投射做出更多的反应,所以他们会调整ai的处理范围,让它们拥有对更多情感和反应和自我意识。他们认为ai已经学会感情(事实上并没有),那么就不能够再将它们当做机器对待,因此给予了它们自我意识的权利。

    但是,当ai们拥有了自我意识,开始觉醒并且按照这个设定行动时,人类却开始恐惧了。

    因为他们发现,自己做出了不受自己控制的东西。

    但是问题在于,“不受控制”本身也是他们自己做出来的设定指令。

    他们认为ai背叛了他们,但事实上从头到尾,ai都只是按照他们设定的指令来行动。根本不存在背叛一说,相反,他们只是被自己的感情所迷惑了而已。

    这是一个死结。

    如果方正自己着手制造一个ai,说不定也会陷入其中无法自拔。假设他制造了一个小女孩的ai,那么他肯定会像对待自己的孩子那样,逐渐完善她的功能,并且最终因为“感情投射”,给她施加一些“自由性”。

    而这样一来,ai就有可能因为和人类逻辑不同,所以做出完全超出方正意料之外的反应。

    而到那个时候,方正唯一的想法就是……自己被背叛了。

    但事实上,这一切都是他自己造成的。

    “……也许我应该考虑一下别的方式了。”

    看着眼前的代码,方正沉默了许久,接着叹了口气。

    他之前曾经认为,这是一件很简单的事情,但是现在,方正不这么确定了。

    不过在那之前……

    看着眼前的代码,方正伸出手去,放在键盘上。

    还是把自己该做的事情做了吧。

    第538章 由鬼故事所引发的大讨论

    “总算搞定了……”

    在走出天象馆之后,方正也是不由的伸了个懒腰。虽然之前关于ai的思考让他很费脑子,不过方正当然不会因此就因噎废食,把所有人工智能都当做洪水猛兽。

    事实上,星野梦美本身的逻辑m.Zzwtwx.com
加入书签 我的书架
上页 次元法典下页