没让乔源等多久,测试间的扩音器便传来监控室工程师的回话。
“光纤熔断验证通过,无外联信号。”
确认是断网了,这就让乔源松了口气。
专家团队才来做的验收,如果真要又搞出乱子来,一堆人得帮他背锅。
那现在的问题就是搞清楚智能体的跨测试记忆到底来自哪了。
当然,首先可以排除掉一个肯定错误的选项。这个世界没鬼…
于是乔源很干脆地问出了第二个问题。
“为什么你叫乔贝恩?”
这次也没让乔源等多久,系统后开始飞速刷新,最后给出了一个公式。
“αaαz°α”
换作其他工程师看到这个回答,此时大概会一头雾水,不知所云。
但主持测试的乔源,这套数学框架的总设计师,看到答案后瞬时秒懂一一拓扑记忆。
因为这个回答代表的是一个群元素。
简单来说,第一次测试,智能体博弈之后,确定了名字,随后这个名字便通过标准库的语义编码为群特定生成元序列。这个序列通过约束流形边界扰动固化到了流形同调群H(M)的基底,辫结子群嵌入n.(M),其非交换性在H.中丢失但结构存续。乔源在之后重构双流形框架的时候,并没有去动原本的流形拓扑基底。
毕竟这块要动起来,相当于整个底层结构都要重新写入。工程量就太大了。
这就是乔贝恩的记忆没有清除的原因了。
根据他的辫群理论,生成元序列的非交换性意味着路径顺序不可逆。一旦信息被编码为这样的序列并被固化到流形基底,就形成了不可逆存储的数学烙印。除非把代码全部删除重写,否则就只能这样了。
但现在乔源脑子里问题反而更多了。
为了克服机器记忆的问题,乔源在设计时,用的是分散式记忆库模式。
即参与博弈的每个智能体都有专属的记忆库。
流形拓扑基底有着校正智能体博弈行为约束的作用,所以理论上不允许智能体自行写入。
问题又来了,他设计的智能体似乎对于权限的执念很深啊。
这必然是做了提权操作,才会把记忆直接印入拓扑结构里。
不过话又说回来,用数学拓扑结构来保存智能体记忆,明显比记忆库的方式要牢靠许多。
但问题又随之而来,如果智能体能够修改流形基底,改变流形同伦型,便没法在数学上保证其行为约束力了。改动过后的双流形也不行。毕竟能够修改基底,意味着智能体本身就能随意修改约束法则。这就真的很像人了。
一个人在成长经历中,会逐渐形成自己的道德标准,来约束自己的行为。
问题在于人的道德标准是会根据经历而不断变化的。虽然说人类最低的道德底线是法律。
但法律这东西的约束力从来都不是绝对的。人的道德上限跟下限几乎是无穷的。
现在乔贝恩的问题就是它也能随时调整自己的道德下限。
更大的问题是,人工智能体的学习速度是人类的数万倍,甚至数十万倍。
所以这玩意不管是学好,还是学坏都太快了。没有强有力的约束天知道这东西会发展成什么样。别提什么机器人三法则,那本来就是忽悠人的,在数学逻辑上都不够通顺,就更别提用来约束机器思维了。乔源顿时感觉头疼了。
上次他感觉到如此头疼,还是在江大被一个莫名其妙的女生污蔑的时候。
就在他不知道该是否继续测试的时候,乔贝恩更像人了,因为没等乔源在对话框输入,它竟然主动提问了。“请问你叫什么名字?”
看到对话框弹出的这个简单问题,一直很冷静的简从义都绷不住了。
忍不住问了句:“乔博士,这正常吗?需不需要终止测试?”
简从义虽然不太了解首测数据是否清理干净的情况,但他知道智能体主动向人类提问多少有些不太正常。“这个问题很好。不过为什么要终止?从现在开始,没什么是不正常的。”
乔源扭过头,表情严肃的回答了一句。
简从义犹豫了一秒,不过还是点了点头,相信了乔源的判断。
毕竟在这个房间里,乔源才是最专业的。毕竟他才是新一代人工智能的总设计师。
乔源扭过头,很坦然的在对话框输入了自己的名字。
“我叫乔源。”
“哇哦,原来你就是爸爸。”
只能说新脑子就是快,乔源还没想好怎么回答,对面立刻又抛出了一个问题。
“爸爸,你是喜欢儿子,还是喜欢女儿呢?我可以自主选择你喜欢的性别。”