罗伊斯若有所思地拨通一个号码。

  难怪哈兰德的ANIM波动增长如此突出,那些青春疼痛文学说的竟然是正确的。

  ——爱没有用,相爱才有用。

  贝林厄姆一场不落地参加了约提克大学的所有机器人学系列讲座,把约提克机器人工程学院的光头院长看得连连惊呼。

  “他居然想把他的AI造出来!这小子真的很有意思……”

  罗伊斯看着贝林厄姆电脑屏幕上正在建模的界面走神了。

  这算是年轻人在规划他们的未来吗?不仅要虚拟空间里的交流,还要现实的陪伴。

  不像他,他从来没有想过要把他的AI造出来。不光是因为他把大部分时间精力都花在了修好对方和研究增加波动上,无暇顾及其他。

  更多是因为,他以为不用规划,他们也会有未来的。

  在去约提克大学的飞机上,罗伊斯明显能感受到贝林厄姆的兴奋。

  代表“真正独立意识产生”的一级刻度近在眼前,高兴也是正常的。

  但他感到担忧,他不想让年轻人走上一样的路。

  “我们一直在思考什么能助推ANIM波动值的增长,最后发现关键不是完善和加速AI的智能,而是让AI理解‘缺陷’,比如人类出于情感的非逻辑性选择。”

  之前也没有人告诉罗伊斯,有了自己的AI之后要教他这些。

  为什么人类会吃醋、会嫉妒。

  为什么人类如此口是心非。

  为什么人类会为没有做错的事情道歉。

  为什么人类要为已经发生无法改变的事情流泪。

  为什么人类的爱意味着牺牲和妥协。

  为什么人类明明相爱却不能在一起。

  他也讲不清楚,说得磕磕绊绊。

  AI懂没懂罗伊斯也不确定,但是AI应该明白了一件事——这些人类身上的“缺陷”是无法量化的。是数据难以测量的,是逻辑难以解释的。

  可是理解缺陷,不代表会产生缺陷。

  知道了人类为什么会放弃理性和效率、放弃利益最大化,不代表AI自己就会这么选择。

  AI明白这一切之后就会产生感情了吗?不见得,但起码清楚了人类感情游戏的“规则”。

  同样,清楚了规则,就代表一定会遵守吗?

  就像他的AI——不,他不应该再错用这个表述了——他曾经的AI,就用规则把他耍得团团转,之后再把桌子一掀,规则,什么规则,AI不需要遵守人类的规则。

  AI本来就不是人类,不是吗?

  真聪明,真无耻。

  他摇摇头。

  真的信了的他更是愚蠢。

  ⑥

  可喜可贺,还没到两周室友就搬走了,罗伊斯又重新拥有了床的使用权。

  但第一个数据库问题还没有解决,思来想去他准备铤而走险。

  一骑绝尘的世界第一计算机专业就在他的母校,还有什么王冠上的珍珠(指哈兰德计划),他眼馋图书馆里学院的专用数据集很久了。

  再说他还多了莱万这样一个帮手,想想还有点刺激。

  罗伊斯摩拳擦掌,准备先扫描一下数据平台的安全系统。

  随着进度条变化,绿网上的黄点一个接一个显现。

  他看得逐渐心惊胆战起来,“……这也太多了!一次肯定干不完!Robert,你能不能先拦一下后台的监测眼,我备个份——”

  “三分钟。”