" 情感交互 " 正在成为机器迈向 AGI 的下一个战场。
(资料图片仅供参考)
近几年随着 AI 技术的迅速演进,机器学习的领域逐渐从文字、图像、视频等模态,转向更为复杂的情感识别。在情感识别技术发展下," 陪伴机器人 " 已发展为具有潜力的细分赛道。Precision Reports 数据显示,2023 年全球陪伴机器人市场规模预估为 920311 万美元,未来 5 年年复合增长率预计达到 25.68%。
成立于 2014 年,可以科技是 36 氪长期关注的机器人企业。其首款产品 ClicBot(可立宝)为可自由组装构型的模块化机器人。ClicBot 好比可自由组装成遥控车、机械臂、机械宠物等形态的机器人乐高,用户可通过搭积木般的拼接以及功能程序编写,DIY 具有不同功能的机器人。
在生成式 AI 技术逐渐成熟的当下,可以科技的第二代产品、陪伴机器人 Loona 则将功能重点从乐高般的 DIY,转移到了人机交互。36 氪曾有关 Loona 的功能做过详细的介绍。
Loona 与狗对视。图源:可以科技
可以科技创始人兼 CEO 杨健勃告诉 36 氪,Loona 的 " 宠物 " 形态来源于 ClicBot 中最受用户欢迎的构型。这一现象侧面反映出,用户对于机器提供类生命体的智能交互具有较高的需求," 我们想通过 Loona 打造下一代机器人智能决策机(Intelligent decision making machine)通过智能决策机,可以让机器人能够通过多模态地信息流畅地表达情感,让机器人真正懂人 "。而情感交互可以将机器人人机交互体验从 " 理解命令 " 提升到 " 懂你 ",让机器人可以自由地表达情感。
Loona 被摸头。图源:可以科技
想在机器人上实现智能情感交互,需要在感知、决策、执行三个环节构建完整的软硬件系统。
作为建立人类情感模型的先决条件,高质量的人机情感交互数据一直是稀缺资源。杨健勃告诉 36 氪,数据采集的难点主要有二:一是需要双相交互,二是需要脱敏,不侵犯个人隐私。
为此,可以科技通过深度强化学习算法建立了一条从视觉感知、到生成式情感交互 AI 模型的通路。
在感知层,作为能够 " 读空气 " 的宠物,Loona 的情感反馈来源于一整套复杂的视觉软硬件系统。作为 " 眼睛 ",Loona 搭载的 3D-ToF 摄像头等感知元件和算法可以实现人脸识别、身体检测、动态静态手势识别、人体骨骼识别、3D 动作捕捉、物体识别、情感感知、宠物识别、场景识别、标志识别等感知功能。
Loona 玩球。图源:可以科技
在决策层,在基于机器人收集到的脱敏交互数据,可以科技将 Loona 的基于数据库索引的交互模型转换成了基于深度学习的 AI 模型,继而则是通过 Loona 实机进行强化学习。目前,Loona 拥有高日活跃率和持续提升的销量,基于用户反馈,Loona 的强化学习可以建立起数据飞轮。
在执行层,基于以上两环构建的智能情感决策模型,可以科技正在研究一套实时交互生成系统。杨健勃介绍,以往 Loona 的情感表达采用的是由设计师提前设计的表情动作和音效来表达。接入情感决策模型后,Loona 的表情、动作和音效能根据用户的交互实时生成,比如 Loona 的 " 眼球 " 能根据用户的表达转动,将交互周期从十几秒缩短到毫秒级。未来,Loona 的实时交互系统还将持续升级。
Loona 与孩子一起玩耍。图源:可以科技
" 决策模型会颠覆掉 Loona 以往的交互方式。" 杨健勃对 36 氪表示," 指令和功能的概念会变得不重要,因为 Loona 能够实时理解人类的意图,再自然地做出交互。"
而作为智能决策机,杨健勃认为 Loona 与宠物陪伴或人类陪伴并非替代关系,而是关系的有机补充," 生物的进化有特殊的性能,目前 AI 侧难以提供真实的感觉。但机器人的优势在于能够从更多维度理解人且做出反馈,也更稳定。相信它们将和宠物、人类有机共存。"
来源:36氪