不管你承不承认,ChatGPT已经挑起了人们对AIGC行业的好奇心。除了铺天盖地的新闻报道外,笔者总能在朋友圈看到很多人询问ChatGPT到底是什么,身边好友也在初次和它对话后给出了“惊艳”的评价。 事实上,全网热议的ChatGPT和它代表的AIGC行业绝不再是昙花一现的虚假风口。类ChatGPT产品们已经向我们释放了一个关键信号:未来, 内容行业或迎来一轮大洗牌 ,UP主、微博大V甚至是他们背后的MCN,最终都将和AI同台竞技,共同争夺互联网中有限的流量。 对于如TikTok这类承载创作的内容平台来说,AI的出现将会为平台创作生态带来质的改变。当AI和储备海量视频的TikTok强强联手,它将从数据库中分析众多热门内容的“基因”,进化成一个“从不失手”的爆款输出机。
去年年末,ChatGPT横空出世,让我们看到了AI在文本内容生产方向的潜力;随后,微软重金投资,并将其应用在自家搜索引擎Bing上,从此,下一代的搜索引擎有了具象面貌。然而,ChatGPT在应用领域的开发阶段还仅仅处在开始阶段。 跳脱文本之外,厂商完全可以在ChatGPT类应用的基础上多次加工,生产 图片、音频、视频 等多元化体裁的新内容。 AIGC行业的应用技术场景 图源:量子位智库
我们从听起来难度最高的视频开始,先将撰写视频脚本的任务交给AI试试看。为此,扬帆编辑部向ChatGPT提了一个问题,希望它帮忙“写一段可以引起快速传播的TikTok视频脚本”,并将时长限定在30秒之内。 面对这个问题,ChatGPT稍加思索就给出了答案,以“极限”和“挑战”为主题, 给出了关键的镜头画面、音乐、标签和时长描述 。虽然ChatGPT写文案有一手,但现在看起来,它似乎只能初步取代我们编辑的工作,或者只是为头脑风暴提供灵感。 不过该焦虑的也不能只有我们编辑,现在我建议负责视频剪辑、画面配音等工作的打工人一起慌一下,因为在未来,AIGC也很有希望胜任这些工作。 过去,很多AI已经能够满足一些难度大、成本高的需求。 比如视频剪辑应用“闪剪”,其支持视频配音、生成虚拟数字人形象等AI特效技术,且这些形象都已经达到了真假难辨的地步。只需要制作者输入字幕、提供素材图片,小白也能快速上手做出一段视频。
你能分清楚他们谁是虚拟数字人吗?答案是——全部 | 图源:闪剪 那么,如果我们 把视频工作拆解成多个不同的工种 (画面、配音、文本、背景音等),将提供字幕的工作交给ChatGPT,再把配图工作交给DALL-E(Open AI旗下智能生成图片的AI工具), 通过接入多个产品的API接口并加以调试,就能让AI跳出文本范围,做出其他形式的内容 。此前我们报道产品ChatBCG ,也是通过这样的方式实现智能生成PPT的功能。 而在视频领域,QuickVid就是一个集合众多AI技术做出的“一键生成”视频应用。于是,我给到QuickVid的关键词是“AIGC”,它显然会错了意,干脆为我讲解了AIGC(American Indian Graduate Center,即美国印第安人研究生中心)的由来。 可以看到,QuickVid在生成视频的过程中分别调用了 文本生成、视频/图片素材库、文本转语音 等功能,而且给到了用户调整字幕、文案、图片的权力,最终成品除了字幕有明显错误(AIGC变成AGC、断句位置不合理),其他部分完成度尚可。
图:QuickVid的工作界面 左侧生成文本/字幕,中间寻找素材,右侧输出成品
上述视频制作方式更多还是基于现成素材进行的改编整合,而谷歌最近正在研究新的视频技术,致力于在现有视频的基础上实现改变。近日,一家公司发布了他们和谷歌研究团队合作完成的研究成功,其中提到了新的改编方法“Dreamix”,由于原理过于复杂,暂且不在此细述,它的优势在于 将图像/视频直接转化为符合文本内容的新视频 。用文本描述更改视频呈现的画面 图源:Dreamix 0 2 ChatGPT+TikTok=爆款内容制造机? 创作者们还没弄明白自己要不要为AI抢工作的可能性焦虑,大厂已经快速给出了反应。在TikTok的官网上,已经挂出了AI工程师的招聘需求。
“AIGC最近的突破使我们相信可以将AIGC技术用户商业目的,特别是创意制作。” TikTok如是写道,“想想AI生成/辅助广告创意脚本,甚至AI生成的商业图像和视频,它们将永远改变创意制作行业。” 作为短视频平台,TikTok天生具备“病毒式传播”的基因。每当有一个创作者上传的视频成为热门,视频中的一段魔性音乐、一个有趣的梗,都会快速成为全网模仿的对象,进而形成热点话题持续发酵。 模仿是TikTok内容生态中的重要一环,把模仿内容的任务交给ChatGPT,这就算是找对人了。ChatGPT的开发基于自然语言模型GPT-3完成,OpenAI也向大众提供了相应的API接口, 基本可以应用于任何涉及理解或生成自然语言/代码的任务 。在官方给出的调用说明中,注明了补足文本需要满足的三个条件: 展示和讲述。 你给出的问题阐述的足够清楚,让AI理解你的意图。 提供高质量的数据 。 确保有足够多的案例数据,同时它们的质量满足要求。如果案例中混入错误数据,AI有可能认为这是故意为之。 检查设置。你希望AI给到的答案更加多样化,还是希望它的回答尽可能保持正确?根据自己的需求调整相应阈值。 从第二点来说,如果想要构建一个撰写短视频文案的AI机器人,需要企业提供海量资料进行训练, 资料准确度越高、可供学习的案例越多,最终生成高质量答案的可能性也会随之提升 。 假如AI能够从TikTok的庞大数据库中进行训练演算,假以时日,再造一份创意视频脚本或许不再困难。
至今,数千个应用通过对接OPEN AI提供的API接口实现语法更正、提供反馈等功能 把生产内容的任务交给AIGC来做,最明显的优势之一就是 降低生产成本,提升产出效率 。在ChatGPT刚刚面世时,a16z的游戏基金“ GAMES FUND ONE”合伙人Andrew Chen 在Twitter中表示,AIGC将把书籍、游戏和电影的生产成本降至1/100,
想象一下,原本的一支视频队伍需要众多不同工种的成员——文案、剪辑、特效,而这些工作都将由AI完成。不仅如此,AI还能在短时间内迅速生成我们想要的“爆款内容”,以上文提到的视频工具QuickVid为例,笔者用 2分钟 就做出了一条成品视频,批量生成短视频也不在话下。 AIGC应用于视频生产的各个环节 图源:国泰君安证券 ,对完整报告感兴趣的读者可点击链接在线查看。 假以时日,AIGC将为内容行业带来哪些改变? 从TikTok这家短视频内容平台来看,一方面,AI将有希望和真人创作者共同抢夺平台红利; 另一方面,利用AI技术生成内容将对现有的广告行业产生新冲击。 从TikTok的招聘启事来看,他们的计划也是利用AI生成内容的优势,以此 帮助广告主、服务商、创作者生成爆款视频创意,推动TikTok品牌广告业务发展。 得益于本身较高的日活和“一呼百应”式的病毒式传播风潮,TikTok已经成为海内外厂商广泛选择的广告平台之一,其带货、带产品的潜力不可忽视。在扬帆编辑部此前的多次报道中,均提到过TikTok平台宣传起到的关键作用。仅从2022年来看,多款全球化社交产品的热度都离不开TikTok的助力。 在社交媒体的重头业务——广告宣传中, AIGC的加入将为TikTok的广告业务带来新的可能性 。 以TikTok推出的Sparks Ads 为例,它支持调用创作者的视频内容,将其变为 TopView 或者信息流广告(In-Feed Ads)进行推广,通过提供丰富的互动方式(直达品牌界面、引导关注博主等),从而为创作者和品牌带来推广收益。 Spark Ads 示意图 图源: TikTok
如果AI具备量化制造爆款广告的能力,TikTok广告主们大可直接引用AI的视频创意,甚至引用AI生产的成品进行大规模推广,新技术的应用也会对其广告业务带来新的动力。2022年, 受经济因素影响,TikTok曾将广告业务的全年预计收入从120万美元调整至100万美元 。现在的TikTok需要找到新的“助推器”,提升品牌广告的业务收入。 赋能品牌广告业务的同时,压力也将给到所有的创作者。在人人都能成为内容生产者的UGC(User Generated Content,即用户生成内容)时代,UP主、大V和他们身后的MCN机构才是引领互联网潮流的超级话筒;当AI摇身一变成为创作者,AI可能对人类创作者造成“降维打击”。 在日番《CAROLE&TUESDAY》描述的世界中,人类移民到火星生存,而AI技术已经在现实世界中得到广泛应用,AI可以当人类的宠物、闹钟,实现自动驾驶车辆。这个世界的艺术作品也交给AI完成。包括作为主旋律的音乐,也是通过AI分析大数据而生成的科技产品。
当AI生产技术趋于成熟,将势必拉高人类的创作门槛。 “绝对正确”数据创造的科技品如何和人类艺术家的创作内容共存? 在不远的未来,创作者需要回答这个问题。
AIGC已经向所有内容行业发起挑战:文本、图片、视频,甚至是搜索引擎、地图都会得到优化。虽然要实现上述愿景,还需要高质量的数据和高额训练成本,势必需要企业投入大量时间和金钱,这也是全球大厂在未来一年甚至十年中的努力目标。
或许正如从业者所言, 前十年是UGC的天下,而未来十年将是AIGC的主场。 2023年出海之路内推与外力并存,互联网发展从借势全球化到生而全球化,进阶至产品、技术、商业模式的全方位输出。变化蕴藏机遇,沉浮方知良木,大会将以全方位的思考沉淀可持续的见解,在不确定的时代,寻获出海的坚定。 3月9日 09:30——17:30 扬帆出海将于北京三里屯通盈中心洲际酒店·4层举办GICC | 第三届全球互联网产业CEO大会。 作为聚焦互联网全行业出海发展与机遇的趋势大会 ,3月9日我们一起让未来可见。