其他
导读从业务角度看,内容评估判断对于视频平台为代表的内容平台是核心能力,通过结构化评估和预测能力加持,评估能力使得平台内容质量取得了非常可观的效果;从技术角度看,预测是一个复杂问题,现实世界大部分问题都是小样本问题,即FSL或者ZSL。本内容主要总结在阿里文娱内容预测里的一些系统化的工作,尝试对以上两个问题做了一些理论思考和实践的总结。(视频回放)面临的行业趋势及挑战这个行业发生了巨大的变化:以前的内容是万人空巷、全民爆款、全中国人民都看一部片子,后来到几部片子,而现在是圈层爆款,各有所爱。在感知层面的困难是:每年会诞生不到1000部的片子,不同圈层感兴趣内容不一样,完全不了解对方发生了什么情况,用户也没有时间去了解所有的内容;在认知层面的困难是:用户洞察很复杂,在某种程度上决定了播出效果。举个例子:疫情期男女观看比例发生了大比例的变化,疫情期对情感类和励志类的偏好提升了40-50%。疫情期有效的用户洞察,可以发掘出同一个事件对不同用户群(性别/年龄等)情绪、心理和行为等层面造成的冲击。在决策层面的困难是:做一个长的内容,需要特别长时间,比如长安十二时辰整个的非群演主创人群差不多800~1000人,群演300~1500人,筹备7个月拍摄是217天。而用户的细分又比较多,所以造成的结果是周期长,成本高、不确定性强,最后决策很困难。文娱大脑基本框架及典型应用场景今天文娱大脑做了一些工作,主要是在感知层和认知层,决策层做了一些工作,从这样一个产业结构上,提升整个内容的确定性的质量。我们分成5个阶段,前面是评估,然后选角、制作,再到宣发与分发的阶段。1、选角:这是电视剧《重生》的选角要求。全中国有这么多演员,哪个是最合适的?我们建立了一个库,在语义层面上做一些理解,基于判断的结果,可以做一个更精细化的圈定,筛选完了之后会选到这个人,最后播出的效果也不错。2、成片体检逻辑上讲,用户看视频,画面、背景音等视听体验后,这些视听体验会带动情绪上的波动,我们就想能否模拟这种波动呢?就建了这样的一个基于CV和语音的一些识别的工作,然后去模拟的情绪曲线。基于情绪曲线,我们和业务方做了一些配合,把这些曲线使用上,然后从内容制作的角度(结构、角色表现力),去做些分析。我们会看到两条曲线,橙色曲线是支持观看的收视曲线,蓝色是机器预测曲线,两者的相关度还是挺高的,能到0.6。围绕这个结果,专业人员会做一些片子上修改,我们用严格的ABTest发现,基于这种方式修改专案内容,整个的好评率提升20%,然后TS涨了5%,另外,在开放平台上,片方也觉得对宣发非常有价值。3、现场解决方案如何在现场来提供这样的一些解决能力?去识别现场的用户的感受,做到及时反馈?所以我们做了这个现场解决方案。这三部分我们还是在NLP,CV的这些技术解决感知层能力的一些方法,感受到用户的一些反馈,然后及时反馈过来,感受到内容的一些要素,以此优化内容。这两年在推进认知方面的内容:内容360评估(一个内容的评估是多维的)。AI和业务专家一起做了两件事:其一,构建文娱的知识图谱,把经验通过一些规定的方式进行沉淀。我们现在有一个全行业最大最全的知识图谱,有几百万的内容,几百万的演职人员,各个方面的人才都在评级库里面,数据字段的准确度也达到了非常高的标准。围绕这部分知识,根据这些内容的不同的、分级标准,会形成概率分布图。其二,AI预测工具。把这个体系看作成一个从感知能力到认知能力的映射,我们可以做流量预测,去更精准的去预估,做流量预测。大家关心的肯定是准确率,过去的一年准确率整体提升了10%,内容质量提升20%,流量比较低的内容下降了10%,所以这个体系还是比较有价值。它是技术非常复杂的工作,为了统筹这件事,文娱在很早就形成了内容认知的框架,去指导我们怎么把认知层、决策层、感知层结合起来。我们把内容和用户的部分拆分开来:左边是内容,包括两部分:外延与内涵,外延部分,外延与IP/主创等相关的内容;内涵部分,拍出来的视频,基于经典的知识理论、戏剧理论、视听语言,构造基本的判断维度。围绕这个判断维度,识别人物情绪、场景、动作、着装等元素。右边用户部分,从结果到行为,从行为到心理到生理,怎么建立右面的体系?打通内容到用户行为数据之后,会做到左边的内容片段和右边的用户行为之间的关联,以此为基础,就可以在整个内容全生命周期各个阶段去做预测。大部分人不会去做流量预测的问题,把问题泛化一下,本质上是商品需求预测的问题。大部分的商品需求预测都是一个复杂的问题,几乎所有的商品的需求预测越在早期越有价值,越在后期价值越小。但早期的问题就在于它是一个样本量很少的问题。小样本系统思考及实践如何用少一点的样本,做复杂问题的预测?首先是圈层。行为是非常稀疏的,你看到的内容是一小部分,另外一些人看的内容也是小部分,行为特别稀疏。艺术还追求它唯一性,从某种程度上讲,它本质上是ZSL的,没出现过。如何基于没出现过、出现的一些行为很稀疏去做预测?其次是用户结构的稳定性。行为偏好的人群结构的预测,我们从一个通用性的角度来去看少量的问题是个什么样的问题。前面有了KG和其他的一些数据,前面这一部分是定义什么是个机器学习,FSL是一个典型的机器学习问题,就是一个在少量的可标注的样本上的学习问题。背后的真正的挑战是什么?对于预测问题,对机器学习的问题期望的风险评估最低的时候,是在数据分布下,然后你lost他的一个期望值,但是你这个期望值你不知道,然后所以就诞生了一个学习理论。从学习理论出发,一致性收敛,围绕一致性收敛,在数据量的情况下,出来的误差和模型在整个全样本分布上期望的误差之间的正确是多少,做有确定数量的分析。它跟n有关系,特别大的时候他的up