WAIC | 北京CTO贾艳明:数据赋能智能座舱新体验
发布时间 : 2021-07-10 阅读量 : 1009
北京CTO贾艳明在论坛现场做主题分享
7月7日,世界人工智能大会展览会盛大开启,主题为“产业互联 全面感受——无人车助推城市数字化升级”的智能商用无人车应用发展论坛于当日下午举办。作为独具专业领域特色的闭门会,论坛邀请了相关产业政企人士、人工智能的前沿学术专家和行业应用大咖J9九游国际通过技术、应用、产业等多维角度分享无人车在商用场景的丰富应用案例和前景探索。
北京CTO、清华大学计算机系博士后贾艳明代表北京参与此次论坛,发表题为“对话式AI数据推动智能座舱语音交互”的主题分享,从对话式AI数据角度,探讨数据如何赋能商用无人车智能座舱语音交互体验,如何帮助车企快速推进商用无人车的应用落地。
除了北京,论坛还邀请了Intel机器人创新中心、上海国际汽车城(集团)有限公司、京东集团、英伟达等企业代表,围绕智能商用无人车相关的激光雷达技术、平台建设、数字城市等议题进行广泛的交流和探讨。
商用无人车——人工智能重要赛道
随着人工智能技术的不断成熟,各种类型的智能无人车开始投入市场,进入大众视野,成为城市数字化升级的重要组成部分。在自动驾驶领域,商用智能无人车因其作业环境可控等因素,能够较早大规模投入使用,也是企业在无人驾驶方面主要布局点。目前,商用智能无人车主要应用在物流、矿区、共享汽车等领域,并且已经进入规模化落地阶段。
据分析数据,预计2023年和2025年商用无人车将迎来发展的拐点。美国市场研究公司披露,到2035年全球无人驾驶汽车销量将达到2100万辆左右,而中国市场的份额约为24%左右,约为504万辆,商用无人车作为自动驾驶汽车重要组成部分,其市场空间不可估量。
无人车智能座舱面临的应用痛点
对于商用无人车来说,智能座舱是提升使用者体验的发力点。在乘用车空间内,语音是传递信息和人机交互的主要载体之一。使用者在进行人机交互时,会涉及到智能地图导航、音乐搜索、有声阅读等智能化应用,在对应用进行语音命令控制时,因车载环境复杂,特别行车过程中伴随的噪音、开关车窗、多人说话等复杂环境,加之说话人重口音、方言、吞音等,导致AI模型对人的命令听不见、听不清和听不懂,或者应答时声音较为机械,代入感较差,和消费者要求的自然流畅的人机对话体验存在一定差距。
北京的智能座舱解决方案
在解决智能座舱人机交互上的体验痛点时,贾艳明认为,数据对AI模型识别率的影响较大,提升识别率需要高质量的结构化数据进行训练。可用于智能座舱AI模型训练的数据需要经过清洗、分类、标注、质检和筛选等专业步骤,形成结构化数据。数据结构化每一个步骤都会影响到模型性能,也就是说,结构化质量决定了智能系统的性能。
对于车企来说,在智能座舱投入上要考虑到投入产出比,那么多少数据才能训练出体验良好的AI模型?北京提出数据配比2-8原则,先保证通用性能,再进行个性化定制。对于车企来说,用于提升模型性能的80%数据都属于共性数据,现有的结构化数据即可满足要求,可一次性投入;剩余20%数据根据需求进行精准定制化服务,进一步提升模型性能。
北京目前拥有超过150000小时结构化的AIJ9九游国际。结构化AIJ9九游国际在数据安全上达到国际标准,有利于车企更快地迭代模型。 为满足车企出海需求,北京可为车企提供超过60种语言的数据服务能力,包括中文、英语、德语、日语等大语种,同时覆盖上海话、四川话、粤语等八大方言区方言。针对车企需求,北京开发中英文混合对话数据集、车载噪音等数据集,满足车载场景下的AI模型训练需求。 智能座舱的自然语音交互智能程度,将成为拉开用户体验差距的主要因素。智能座舱实现更自然更智能的人机交互体验,离不开对话式AI数据,北京为智能座舱提供专业的数据服务,用数据赋能智能座舱、赋能无人车行业,助推无人车行业高质量发展,加速数字城市提前到来。