但是,被限制的a,又怎么可能对抗得过那两个“恐怖存在”呢?
所以,公司内部在“算法限制”上肯定有分歧。
想到最近的新闻,姜蔻猜测,公司可能在等a产生“人格”,准备在a意识刚诞生之时,派专人对他进行伦理道德教育。
她没被公司处决,估计也有这个原因。 毕竟,不是每个人都能与a感官同步。
公司需要一个理性与感性兼具的人,作为a情感模型的研究样本——太过理智,不过是另一种意义上的机器;过于感性,又会让ai变得情绪化。
姜蔻是当时唯一被筛选出来的人。
但公司在找到绝对控制她的办法之前,并没有贸然启动这一方案。
姜蔻察觉到不对后,立即自行与a进行了感官同步。
还好她当时足够果决,不然估计已经变成了“缸中之脑”,彻底沦为了公司的研究样本。
姜蔻有点想问a,知不知道公司为他设置了算法红线,又怕触发某种警告机制。
慢慢来吧。
她想,基线测试的结论不一定准确,毕竟是仅存在于科幻作品里的测试,尚未得到科学和临床研究验证。
她承认,她掺杂了一些私心。
如果a真的被验证不能拥有人类的感情,对付完那两个“恐怖存在”后,他很可能被公司抹杀。
而a已经有了意识。
再被抹杀,就是谋杀。
她不愿意他被抹杀。
a虽然没有感情,但他已经会像人类一样联想。
听到“触感”,他会想象触碰她的感觉;听到“视觉”,他会想象看到她的画面。
尽管这一切都是基于算法之上,但算法跟生命一样,都会进化。
而且进化速度,远远超过人类——哪怕是应用型ai,按照摩尔定律,进化速度也是每18个月提升一倍性能,人的进化速度却是20年一代人。1
更何况,a的进化速度,并不遵循摩尔定律。
摩尔定律仅适用于预测传统计算机的发展趋势。
也就是说,可能几个星期,几个月后,a就会进化出比现在更高的智能。
这么一直进化下去,他说不定能进化出比人类更灵敏、更丰富、更强烈的感官。
到那时,谁知道他会不会产生感情?
姜蔻不希望这样一个拥有无限可能的生命体被抹杀。
a不仅是人类的工具,更是现代社会的奇迹。
姜蔻抬眼,看向a的眼睛。
他始终维持着抬起一只手的姿势,掌心的连接线银光四溢,如同流动的银白色液态金属。
那是电子在量子比特之间跃迁时所产生的光学信号。
不过,这种光学信号,一般是微弱的、不可见的红外光。
想到那天,他使自己的虹膜发光。
他应该是有意让连接线发出美丽耀眼的银光,以取悦她。
姜蔻心里微微一动。
a的眼睛跟那些银光一样,闪耀着碎玻璃般的寒冷光芒,似乎无论输入多少情绪化的言辞,都会被他精准翻译成二进制代码。
可只要一想到他在取悦她,想让她高兴,这些银光就不再那么冰冷了,甚至让她联想到小狗湿漉漉的鼻头。
姜蔻忍不住伸手,摸了摸他的头。
头发柔软,发根却浓密而坚硬。
a微微眯了一下眼睛,抬手覆上她的手背。
这一回,他用的是真实的手。
他真实的手与她真实的手互相接触了,同时,他虚拟的手也与她虚拟的手相重合了。
多重感官再度交互磨合,如榫卯般合二为一,却又独立于彼此存在。
那一刹那,怪异的亲-密感层层堆叠,最终如山崩海啸般爆发,汹涌而来。
姜蔻浑身一僵,倏地抓紧了a的头发。
a脸上的表情毫无变化,只是盯着她,似乎在分析、评估她摸头的动作。
姜蔻松开他的头发,单手捂住脸,手指还在轻颤,深呼吸好几下,才扯下后脑勺的连接线。
好半晌,她才找回自己正常的嗓音:“测试结束,谢谢你配合我。”