查看原文
其他

【观潮】人工智能来了 他将怎样改变传媒业?(下)

2017-12-01 影视制作 影视制作

点击上方蓝字关注

加速构建智能场景 争夺用户连接入口

对于未来智慧媒体的理想状态,天脉聚源执行总裁尹逊钰将其分为两个层面,第一层面为媒体智能,从技术角度来讲,它是基于媒体的人工智能技术、大数据技术、云计算技术等媒体智能化技术构建智慧媒体场景,而媒体智能技术所对应的场合就是现在热议的中央厨房——新一代的媒体内容生产、传播和运营体系,它包含了媒体预算、语音识别、大数据、数据挖掘、云媒资、内容发布等运用多平台能力层,在这里人工智能帮助媒体进行内容结构处理、自动化切片、各种语音场景物品等识别,解决编目效率,提高生产效率。而仅仅具备了高效的生产能力,缺少用户连接层也是远远不够的。这时候就需要另一个层面——智能媒体,实际上也就是中央客厅——连接用户与媒体的场景入口。在这里人工智能可以帮助媒体主动抓取用户信息,建立数据库,积极创建与用户联动的入口,提高内容传播率。“天脉的主题就是注重用户的改变、智能重构媒体,目的是要通过媒体智能来建立智慧媒体,通过中央厨房解决中央客厅的问题。所以,未来除了将内容传播到互联网上,还应该明确智能媒体的落脚点,也就是以电视为中心,积极创造更多智能场景来‘霸占’、‘消耗’用户时间。”天脉聚源执行总裁尹逊钰强调,这其中就要充分利用人工 42 34865 42 14939 0 0 3713 0 0:00:09 0:00:04 0:00:05 3712智能技术,在互动过程中采集、收集、整理用户的一系列数据,如:用户的画像、年龄、联系方式、性别、地域、消费力、信誉等,从而通过这些数据更全面的了解用户行为,做出更准确、个性化的推荐。后期再通过不断互动,逐渐丰富数据,提高数据准确性。

天脉聚源执行总裁  尹逊钰

此时,媒体的智能核心能力就尤为突出。如下图所示,首先,需要具备媒体智能,从而感知用户是谁,再让用户也能感知内容,在感知的过程中捕获数据,并对感知数据进行管理、用户数据分析等。通常媒体比较关注通过构建人工智能计算与服务框架模型,建立相关的视频内容识别、视频内容分析、海量文本数据处理与分析系统,帮助媒体生产用户需要的内容。例如利用人工智能技术,媒体可以主动抓取互联网热点新闻或内容进行新闻热点追踪;通过对客观真实的数据进行智能筛选、整合、分析,利用新媒体的可视化相关技术,从而更好地阐述事实、传递信息、帮助受众理解新闻。而除了内容生产之外,感知及数据捕获的能力构建也非常重要,通过感知数据进行管理以及用户数据分析,并根据用户数据精准匹配内容、调整运营策略是未来媒体的发展方向。人工智能可应用于用户画像,并收集用户大数据。尹总举例说,目前有一款外挂摄像头叫小脸色,它不识别用户的外貌等隐私,但是识别用户的“脸色”。在节目播出的过程中,可以通过摄像头对用户的面部表情进行采集,微笑即代表满意,那么,在播出过程中就可以了解到用户对哪些节目内容最满意、最感兴趣,进而优化节目内容制作。在《我要上春晚》节目中,也准备通过手机端利用人工智能表情采集技术,经过对采集到的表情数据进行满意度统计,若超过10% 的微笑,便从中抽取“微笑度”更高的观众并发放礼物。并且,在节目指定互动的瞬间捕获全国100 个笑脸呈现在大屏幕上。再比如,《那年花开月正圆》播出期间,观众通过摇一摇就能套用模板并搭配节目海报,将自己的头像和弹幕一起制作成一个十秒的短视频,视频的内容正是当前播放的电视剧画面,然后用户可以将这段视频分享出去。这样就能将用户参与的部分再返回到电视上,与用户形成了双向互动。另外天脉已经尝试了语音、物品、场景、人物识别提取等人工智能应用来进行内容的识别和处理,然后提取标签,在手机客户端用户便可以进行各种丰富的同步互动,并同步采集到用户的数据。比如,电视节目在播出的时候,通过语音、物品等场景,提取出视频中的商品标签,而后在用户通过手机摇一摇的时间点来了解背后的信息。通过媒体智能,每个节目都将从单纯的播出内容变为搜索引擎,这也可以扩大媒体的商业价值。例如通过人工智能技术可以对广告内容进行高效识别,同时给出全面的关联数据, 提供精确全面的广告投放信息。对广告内容语义级的理解,建立广告信息的深度分析与统计,统计单日或某时间段的流量及收益情况,了解用户福利的发放情况;广告的效果情况和相应的收益情况;提供给广告主与客户更关注的信息价值。

媒体三大智能核心能力

《 那年花开月正圆》 微信互动截屏

其次,需要具备场景智能,从而连接用户。一方面让传统电视连接受众,另一方面让用户连接内容,产生两者的互动。基于内容、声音入口场景智能识别引擎,将传统媒体转化为智慧媒体内容,进而连接用户和场景,构建智能媒体应用。“原来的电视内容只是单向的、静态的生产,而现在可以把观众的参与的部分回到电视上,变成新内容,这就是场景智能。”用户通过智能识别入口进入手机端进行互动之后,产生的用户数据包括头像、互动角标之类的内容返回呈现在电视上,从而产生节目与观众的双向、动态的全景互动; 甚至未来这种互动还可以升级为VR/AR 类内容或游戏互动构建(如VR 试驾闯关游戏),让用户在互动参与中对具体事物的性能、特点有所认识和了解,并可在游戏中进行摇一摇或弹幕互动。另外,在音乐模拟大赛、合唱比赛等节目场景中,可以通过人工智能来匹配电视端与用户手机端同步歌唱的声音粘合度,实现有趣的互动。尹总还介绍,在《朗读者这一应用场景也已经落地实施,比如在朗读《再别康桥》的时候,可以识别朗读者声音标准化的程度,包括每个字的发音是否正确、音量音高等是否合理等等。“但在不断的实际应用过程中,一些问题开始逐渐浮现。如声音的标准化可以得到很好的识别,但是话中抑扬顿挫的情感,人工智能是不容易识别出来的。比如在节目中与机器人比拼现场作诗,机器人的联想能力、寓意分析等是很难和人相比的。”伴随人工智能的应用,节目内容创新的同时,节目模式也在发生转变。“比如,未来深夜或许会出现一档没有主持人的节目,节目中可以通过VR 技术模拟出一个人形,他可以通过语言、表情、肢体动作等来与观众互动。这正是我们计划要做的,由于背后的算法太过复杂,预计至少需要一年的时间才能完成。或者还会出现机器人智能对抗类的节目,观众可以不断挑战机器人,并且由其他观众来投票决定胜负。通过类似这种节目模式的转变,电视节目本身其实就变成了智能节目。”

将用户参与的部分返回至电视上形成双向互动

未来或将出现机器人智能对抗类节目

最后需要具备用户智能,在连接的过程中精准匹配内容,同时沉淀用户。传统电视的广播式传播方式最大的症结在于瞬间连接、无法直面用户,通过用户智能将用户沉淀转化,建立长久的连接,并可以产生持续的商业应用。人工智能可以帮助用户画像,收集用户数据,并在云端建立大数据。通过打通电视和互联网直达通道,构建手机+ 电视的“ 智能伴随” 、“ 智能联动”、“ 精准到达” 媒体场景,包括智能连接、智能联动、智能匹配等等,进而使用户通过移动端与广告、流量、互联网等商业环境匹配后实现商业落地。如匹配用户喜好和环境,产生兴趣话题进行推送、精准商品推送、基于个性搜索进行共同兴趣的智慧匹配等。


伴随着人工智能、互联网等技术的不断应用与革新,不难发现,收视人群、收视习惯等也都在不断发生改变。2008 年至2012 年,用户的选择是精品收看,所以出现了《快乐大本营》、《天天向上》、《超级女声》等节目。而从2012 年到今天,个性化、参与化的收看观众才是核心人群,看电视的目的凸显出来了。用户收看的节目一类是仅在电视上播出的内容,另一类则是互动性较高、能与观众本身产生直接联系的节目。如今,手机已经成了主角。与此同时,很多“侵略者”同样在争夺观众、争夺屏幕、争夺入口、争夺时间,比如OTT、电视盒子等。这些“侵略者”可以记忆用户的习惯、及时更新用户的信息,做到越来越准确的信息推荐。而与这些“侵略者”相比,电视云端缺乏连接和双向的洞察,从客厅的观众角度出发,电视机及其播出的内容是单向的,它对于用户的喜好、习惯等一无所知,因此客厅很难制造出智能场景。尹总认为:“目前使用场景更多的是在电视、手机和智能硬件上。所以,未来应该以家庭为单位,围绕客厅做文章,以电视机为核心,找到智慧媒体的落脚点,也就是消耗用户时间的核心点,积极创造场景。”目前天脉生产的中央客厅的下一代成员“电视精灵”,已经可以实现无需与机顶盒关联,即能实现语音控制、节目互动、智能换台、关联推送、场景联动、人群感知、预约播出等指令。


尹总指出,“在我看来,未来智能家庭的终极样态就是通过人工智能技术来创建一套人工智能的体系,做到以电视互动为主,掌控整个智能应用场景。而其实现在天脉正在做的也是通过人工智能和智慧媒体的方式,利用互联网带来的便捷之处,更好的将互联网的商业延展进去。同时,通过对电视内容的互动化改造,为受众提供的是有价值内容和信息同时,制造和形成观众主动参与的任务互动场景。持续打通双屏价值通道,提升用户体验的特定商业模式,‘争夺’更多的观众及屏幕、‘霸占’用户、‘消耗’用户时间。”

结语

因为阿尔法狗接连打败人类的新闻,人工智能在今年一度成为了最热门的话题。随着机器人主持、机器人剪辑、机器人写稿的纷纷出现,甚至有人对人工智能产生了深深地忧虑,如果未来一切都由人工智能代替了,是否我们媒体人就都会失业了?然而公认的计算机领域超级大师John Hopcroft 教授则表示,并未像人们预想的那么乐观,人工智能目前仍只是高维度的模式识别,我们离实现真正的人工智能还有很长的路要走。例如目前的机器人写稿,还局限在财经新闻、天气预报和地震资讯等的机器人写作,因为这类新闻只需要抓取关键信息、套用固定的格式,可以用机器人写作快速生产完成,大大提高新闻生产的效率。而且目前通常还是需要再经过人工加工、美化润色。而人工智能剪辑,可以通过语义识别、拆分和图形图像识别,按照基本的剪辑规则剪辑视频片段,但是其无法判断素材质量和表演的好坏,尚无法进行对话类的视频剪辑。在采访中,张大勇也表示,以阿尔法狗与人类相比其实带有某种意义上的不公平,阿尔法狗对CPU 计算资源的调用,对能源的消耗与人类能量消耗完全不具备可比性。但是人工智能领域机器人有它的优势和长处,人类应该善于运用机器人的特长解放相对传统的、机器人容易胜任的工作,帮助人类解放生产力,让人类从常规化的工作里解放出来,可以更多的去思考跟情感与文化有关的内容。对于媒体也是一样,用科技提高效率和质量,用数据科技在信息爆炸的时代实现信息媒体的资讯和时间空间渠道的精准匹配,让人工智能帮助媒体完成常规化标准化的工作,而新闻报道、专题等传媒领域需要一些触动心灵的内容,则将是未来高级媒体从业人员最核心的部分。


另外,受访者纷纷表示作为传统媒体还必须从顶层架构去做设计,首先要解决与用户的链接问题,沉淀用户、获取数据;其次还需构建场景,在媒体中使用人工智能解决行业的痛点问题。虽然语音识别、视频识别、文本处理、机器人这些领域都与传媒密切相关,然而在传媒行业的应用还需要以行业需求为主导,未来的广电人不妨打开思路,去发现更多新的发展途径、新的产品线,构建新的场景,将“人工智能+ 媒体”带入新的空间。

(文 / 孙琳 李丹)


推荐阅读

【观潮】人工智能来了 他将怎样改变传媒业?(中)

干货 | 图像摄影过渡到视频拍摄小贴士

两个视效解析

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存