用AI为创作者赋能,「Versa」获红杉中国3000万人民币Pre-A轮融资 | 早起看早期
新技术下会产生新的工具,使用新工具创作的作品又能聚集形成新的生态。
文|张达
36氪获悉,人工智能初创团队「Versa」于近期完成3000万人民币等值美金的Pre-A轮融资,由红杉资本中国基金领投,上一轮资方真格基金与臻云创投跟投。Versa 创始人兼 CEO 蔡天懿告诉36氪,此轮融资完成后,资金一方面将用于国内市场与海外市场的品牌推广,另一方面 Versa将成立深度视觉实验室,招募CV领域优秀的科学家,进一步优化深度神经网络,不断突破表示能力边界,以更高级的通用智能为创作者赋能。
在 Versa 获天使轮融资的文章中,36氪曾介绍到,Versa 早期的产品形态看上去与2016年6月火爆朋友圈的 Prisma 有许多相似之处,但在算法的创新与可延伸的边界上, Versa 比 Prisma 以及同类应用有着更广阔的空间。
CTO 赵维杰表示,目前深度学习的瓶颈并不在于数据量太小,而在于数据有效利用率太低。与传统深度学习自下而上的数据驱动方法不同,Versa 提出了全新的 ConceptNet 理论框架:基于概念学习,从概念空间理解事物,突破传统深度神经网络的表示能力边界,进而建立具备感知、联想、推理能力的深度神经网络。
ConceptNet不仅在表示理论上取得突破,还提高了数据有效利用率。在传统方法需要10万+数据量的问题上,ConceptNet只需要100张以下的数据样本。
8月份内测时,Versa仅有1万的定向邀请用户,8种渲染风格,功能上可实现针对画面局部的二次渲染以及对景深景浅的区分。3个月以来,Versa 一共进行了4次大的迭代,实现了从1万到100万的用户数的增长。
9月出初Versa 上线 了 Versa Space 功能,用户可以上传作品到自己的主页上,不同用户之间实现了关注、留言等互动功能;同期上线的“人景分离”与“风格色”功能则代表了 Versa 团队在图像识别算法层面的新的突破。此功能在测试中做到了98%的准确度,甚至能识别并分离出一根头发丝。
人影分离
而在10月底,Versa 将“人景分离”升级到“图像分离”,即算法不仅能够识别人,还能识别出小猫、小狗、桌子、杯子、汽车、飞机等物体。比如下图,车和人可以单独分离也可实现同时与背景分离,目前Versa可识别并分离的物体已超过20种,平均准确率93%。
图像分离
蔡天懿表示,想要实现以上功能的前提,是机器要能够识别图片中的所有元素,比如人的五官、头发、衣服材质、汽车车灯、车窗、狗的五官等等。只有这样,机器才能进行下一步的工作:赋予不同物体其应有的笔触与渲染风格。
举个例子,Versa 在针对人物发丝做渲染时的笔触就跟人物五官和旁边的桌子不一样,截止到今天,Versa 已经支持超过30种不同名画的渲染风格。
关于 Versa 将要推出的最新功能,蔡天懿告诉36氪,在圣诞节期间团队将会对“图像分离”再次升级 —— 实现对短视频的人景分离。
想象一个场景,落日黄昏,你从中关村创业大街走来,周边的景色被渲染成梵高的《星空》,唯独你在现实场景之下。这个时候,你再按一下人景分离的按钮,你从头到脚被渲染成了《星空》的风格,而中关村创业大街恢复成往日的景色。
36氪已体验过短视频版本的人景分离功能,效果值得大家期待。未来用户只需要拿起手机,打开 Versa,一段带有名画风格的短视频便可轻松存入相册。
红杉资本中国基金副总裁王临青告诉36氪,“红杉相信:新技术下会产生新的工具,使用新工具创作的作品又能聚集形成新的生态。我们一直致力于寻找和支持技术创新,Versa正是一家这样的公司。”
采访的最后,蔡天懿向36氪透露,Versa 本质上是一家由工程师组成的团队,而在工程师心中,技术应该被分享。因此 Versa 接下来将通过 OpenAI 的平台将其部分 AI 算法免费开源并将核心算法的端口实施付费调用。蔡天懿认为,只有将技术分享才能让 AI 之上的产品变得更加多元,而只有产品实现多元,才能让更多有趣的应用场景实现落地。
点击关键词,查看过去两周的早起看早期:
内容:「iSlide」
消费:「衣二三」「虫虫洗车」「小闪」「智能水族箱」「啤酒厂牌」