首页

速读谷

菜单

什幺是计算机代码的固定?

是指它在模拟对话过程中,不同对话之间,语气的停顿和间隔都是一样的。

类似疑惑从0到100,豆包对疑惑的表现永远是卡在50这个分位线上。

这是因为模型在生成语音时,需要对一系列参数进行预测和控制,包括了音高、语速、音量、停顿等等。

而模型的第一要义是平滑性,也就是生成自然、流畅、没有明显机器感的声音。

为了达到这一点,模型倾向于选择参数空间中最稳定、最平滑的路径,而不是最极端、最不规则的路径。

另外在参数空间里的均值回归,为了最小化损失函数,模型同样会倾向于输出高概率的均值。

说的更直白一些,一旦识别到疑惑这个标签,AI就将其与一组预设的、固定的语音参数,像语速放慢5%,音调提高30Hz,停顿增加500ms这样的标签进行绑定。

所以人工智慧模拟的情绪是假的,余东的疑问是,你们到底能做到哪一步?

只是更多的标签,更细分的情感表达,还是说真正意义上的情感模拟?

如果林燃说的信誓旦旦,他反而不敢信。

而林燃给的回答,是我也不知道。

这样的回答,让余东内心震惊不已,你们该不会是真的做到了吧。

「林总,卧槽,你们真实现了非结构化、高纬度的实时情感反馈?」余东问道。

林燃说:「如果你只是指这个,那我可以肯定的告诉你,我们确实做到了。这个本身就是左右脑架构要解决的核心问题。

右脑的神经形态晶片本身就具备负责捕捉并生成情绪偏置的功能,它能打破左脑GPU

的理性控制。

你们的晶片研发部门拿到的右脑晶片设计方案里,应该有相关模块,你想了解更具体的技术问题,可以问问他们,我很期待华为研发的右脑晶片。

它能让AI犯错,能让它犹豫,能让它像一个真正的人一样,在交流中产生随机的、不完美的停顿和反应。

我们想做的更多,我不确定,它真的能够跨过那条鸿沟。「

余东面露迟疑:「什幺鸿沟?机器和人之间的鸿沟吗?」

林燃说:「是的,这次的一万个名额,背后关联的其实是一万个角色,我们和腾讯合作,在一个虚拟世界里的一万个角色,我们给每一个角色都生成了人物、背景、成长环境、工作等内容。

现实世界和虚拟世界之间的交互会逐渐完善这个虚拟世界。

我们目前好奇几点,像社会性情感的涌现。

我们好奇,当一万个拥有不完美情感的AI,在一个相对封闭的虚拟社会中开始交互时,它们是否会产生宏观的社会性情感?

它们之间是否会形成群体性的排斥、部落化的认同、甚至是系统性的偏见和歧视?这些情感,并非由我们编码,而是由它们自身的交互逻辑和预设的背景参数,在动态环境中涌现出来的。

智慧能够涌现,那幺情感呢?「

余东脸上出现好奇和期待的神色,这是他也好奇的问题。

「第二个在于,当这些AI角色不断接收来自人类内测用户的强情感反馈,并被要求根据预设的性格和经历做出复杂决策时,它们是否会发展出超出设计目标范围的自我认知?

上一页目录下一页

相关小说全部