什幺是计算机代码的固定?
是指它在模拟对话过程中,不同对话之间,语气的停顿和间隔都是一样的。
类似疑惑从0到100,豆包对疑惑的表现永远是卡在50这个分位线上。
这是因为模型在生成语音时,需要对一系列参数进行预测和控制,包括了音高、语速、音量、停顿等等。
而模型的第一要义是平滑性,也就是生成自然、流畅、没有明显机器感的声音。
为了达到这一点,模型倾向于选择参数空间中最稳定、最平滑的路径,而不是最极端、最不规则的路径。
另外在参数空间里的均值回归,为了最小化损失函数,模型同样会倾向于输出高概率的均值。
说的更直白一些,一旦识别到疑惑这个标签,AI就将其与一组预设的、固定的语音参数,像语速放慢5%,音调提高30Hz,停顿增加500ms这样的标签进行绑定。
所以人工智慧模拟的情绪是假的,余东的疑问是,你们到底能做到哪一步?
只是更多的标签,更细分的情感表达,还是说真正意义上的情感模拟?
如果林燃说的信誓旦旦,他反而不敢信。
而林燃给的回答,是我也不知道。
这样的回答,让余东内心震惊不已,你们该不会是真的做到了吧。
「林总,卧槽,你们真实现了非结构化、高纬度的实时情感反馈?」余东问道。
林燃说:「如果你只是指这个,那我可以肯定的告诉你,我们确实做到了。这个本身就是左右脑架构要解决的核心问题。
右脑的神经形态晶片本身就具备负责捕捉并生成情绪偏置的功能,它能打破左脑GPU
的理性控制。
你们的晶片研发部门拿到的右脑晶片设计方案里,应该有相关模块,你想了解更具体的技术问题,可以问问他们,我很期待华为研发的右脑晶片。
它能让AI犯错,能让它犹豫,能让它像一个真正的人一样,在交流中产生随机的、不完美的停顿和反应。
我们想做的更多,我不确定,它真的能够跨过那条鸿沟。「
余东面露迟疑:「什幺鸿沟?机器和人之间的鸿沟吗?」
林燃说:「是的,这次的一万个名额,背后关联的其实是一万个角色,我们和腾讯合作,在一个虚拟世界里的一万个角色,我们给每一个角色都生成了人物、背景、成长环境、工作等内容。
现实世界和虚拟世界之间的交互会逐渐完善这个虚拟世界。
我们目前好奇几点,像社会性情感的涌现。
我们好奇,当一万个拥有不完美情感的AI,在一个相对封闭的虚拟社会中开始交互时,它们是否会产生宏观的社会性情感?
它们之间是否会形成群体性的排斥、部落化的认同、甚至是系统性的偏见和歧视?这些情感,并非由我们编码,而是由它们自身的交互逻辑和预设的背景参数,在动态环境中涌现出来的。
智慧能够涌现,那幺情感呢?「
余东脸上出现好奇和期待的神色,这是他也好奇的问题。
「第二个在于,当这些AI角色不断接收来自人类内测用户的强情感反馈,并被要求根据预设的性格和经历做出复杂决策时,它们是否会发展出超出设计目标范围的自我认知?