EP07 AI如何颠覆设计流程讨论会纪要
关注共识粉碎机,获取历史讨论会纪要
详细的讨论会分享背景请见我们上一篇文章《AI如何颠覆软件:你能为AI打工吗?》。
我们尽量每周都会组织不同领域的AI讨论会,覆盖软件行业的所有细分。为了保持一个活跃的讨论环境,对参与人群会有限制。
下一期将定于本周日(8.13)上午10点,主题为《AI如何颠覆可观测性工具》,详细的下一期内容和报名形式请见文末的阅读原文。
本期讨论会参与者:
张晨老师,Canva设计总监
徐作彪老师,Nolibox创始人,旗下有画宇宙、图宇宙等AIGC落地产品
黄祯老师,AI Vanguard发起人,GenAI创业者,AI+服装分享人
头部互联网公司设计负责人
高宁,Linkcloud创始人,我思锅我在主理人
互联网行业UI/UX:目前被AI改变最小的领域
各类互联网公司都尝试过了,初期在Banner图和插画有帮助,但是越用到后面,越会感觉到可控性的难度。
UX:帮助非常小,主要是文案产出,在主工作流上没有帮助。
UI:和视觉高度相关,局部流程被AI改变。典型的是找素材的流程,过去设计师会去站酷等地方找素材创意,或者自己有一个素材库,现在可以让AI迅速把草模减出来;但是找素材本身是UI流程中的一环,其他的环节对AI的需求也不是很大,整体提升有,但不会非常明显。
UI/UX只是产品搭建步骤中的一个流程,需要大量和产品经理、工程师对接,需求也会经常变动,AI在其中的帮助也没那么大。
平面设计师:半程工作明显提效
平面设计师的前半程工作很多可以替代了:背景图不需要自己画了。例如做一个春季出游图,需要一个整体的框架氛围,那如果我是一家旅游公司,再往春天的氛围图上面加内容和微调。现在是春季的氛围图可以用AI来做了,设计流程的前半部分80-90%已经可以被AI替代了。
但是后半程的微调、可控要求非常高,只是依靠AI工具微调达不到要求。例如所有公司的Logo都有明确的要求,颜色和比例不能修改,这部分还是要依靠设计师原有的流程去调整。
平面设计需要完全精准的表达商业含义,国外普遍的设计院校都叫做视觉传达,AI工具现在很多不能精准传达商业的需求,或者甲方的要求。需求永远需要设计师来解读,AI还需要时间来解读需求。
插画师:提效幅度更大
插画师和平面设计师比较像,插画师一般有比较鲜明的个人风格,要求高的插画师也是用AI来做背景图,剩下的自己来修改。
对于大部分普通到中等要求的插画师场景,目前看到的AI帮助是非常大的。例如在Canva中,很多场景是妈妈给孩子画一份贺卡,或者淘宝店做一份海报,没有那么多高精度的要求,AI设计师完全可用的。
游戏美术/原画:原画领域自由度高适配AI
游戏原画本身就是概念图,没什么设计规范,自由度最高,非常适合AI。
但游戏原画里也有个例,这个行业里能画游戏原画的人一般也是最强的人,对画法和技法的要求也是最高的,有自己的Ego在,会觉得他们作为行业最顶尖的人不应该依靠AI。大部分的原画师还是AI大量出图,然后选中合适的做微调或者直接做主题调整。
工业设计:到生产流程还需要优化
产品概念图很喜欢用AI做,但是概念图没什么意义,因为最后需要的是一个能上3D打印机的产品图。
目前的AI设计还不太好支持直接生成完整的3D模型需求。
工业设计中很多高精度要求,比如毫米级、微米级别的要求,AI还完全做不了。
电影/动画动效:长流程中的一步
电影/动画的流程很长,是一个典型的工业体系,AI只能对其他的部分环节有帮助。
目前看来比如概念设计,故事板,AI能起到帮助。
服装设计目前的一些痛点:
- 目前服装设计的流程是灵感→实验→效果图→工艺图制版→发布。
灵感大概占到全周期的20%,是件很难被量化,也不易被压缩,非常依靠设计师的经验和认知。
在打样和发布前,设计师没法充分得到市场的反馈,因为还没有实际的呈现。
设计师的构想或者线稿图,与最终生产的成衣也可能会不符,对时间周期以及原材料耗费都会有影响。
AIGC可以让服装设计的结果做前置呈现:
对外可以做提前的策划。
对内可以把设计的想法,呈现给整个生产设计部门的成员,包括提前给市场部门看到设计结果。
那像之前提到的流程中,对于结果的预测可以在最开始的生成阶段就有已经有了判断。
通过管线微调,可以带来服装涉及领域生产周期废料以及管理成本的急剧下降。
AIGC也可以帮助客户做融合设计:
例如某大牌之前没有做过羽绒服的设计,但是结合过往其他品类的生成风格,可以通过Lora生成符合其的羽绒服。
看AI在工作流程中影响的多少:
例如插画师,原来设计流程中只有两步,背景图+主题内容,背景图场景被AI大幅优化,整体就非常明显。
插画师、摄影师等都属于短线程的工作,靠自己就能完成,那提效幅度也会更大。
但像互联网、电影/动画等,因为流程很长,10步中有1步被完全替代了,那也只能优化10%效率。
同样也看评价的维度:
评价设计产品一般是从数据反馈和美术价值来评判。
例如海报,点击率高,就是数据好。那如果评判美术价值,需要非常专业的人来鉴赏,甚至美术评论家来评论。
如果所设计的作品或者场景,和这两个维度很相关,那AI的帮助就不是最主要的。如果不太相关,例如插画很多时候是功能性的,就像地产公司要做一张圣诞贺卡,就非常容易被AI替代。
会有很多垂直的场景效果非常明显:
例如做投放素材,类似我们之前《EP03 生成式广告讨论纪要》中描述的,可以大幅减少人力。
例如做网站素材,字体和物体素材,结合定制后,都可以有10倍级别的提升。
例如做服装生成模特图,结合定制后,也可以做到90%的成本节省。
外包行业比较容易受到冲击:
美术外包在不同客户上的应用不太一样,例如电商行业就会有非常多的促销图需求,但是设计要求也没那么高。像很多非常成熟管线的公司,美术外包是可能比正式员工还要多的。
有了AI设计后,就比如原来可能40个外包/实习生,每天画3-4张图,一个月完成的项目。现在一个正职+AI工具,可能一周就能完成。
但外包本来就是公司觉得不希望维持高额的固定自有设计师成本,而做出的优化项目。替换成AI有很大的效率提升,但这笔支出本身在公司内部也没多大,而且外包也需要和流程中其他员工有很多沟通。
Adobe Firefly适合传统设计师现有的工作流:
过去设计师习惯的图层、锚点在Firefly中都可以很好地适应。Firefly在出一张图的时候,都会出一个新的图层,叠到老图层上。而不是把旧的整张图改变了。
对传统设计师非常适用,比如设计师的需求是有一个图像的左右延展,延展的两块东西是个新的图层,那关掉这个延展老图层还在。举个例子,要做一个斑马和斑马在喝水的动作,以及它在湖中的倒影,Firefly会把斑马相关的做成一个新的图层,然后可以随时隐藏或者换位置。
SD虽然也可以依靠插件来解决,插件对于很多有一定研发基础的设计师来说也很好实现,但是对于大部分的设计师群体仍然会觉得复杂。以及也要看插件背后的维护团队,目前插件背后的维护团队都不是很成熟,对可靠性也没有特别强的期待。
Canva的AI尝试:
设计需求:生图,修图。Canva中有大量的小B和2C用户,本身对于高精度要求不是很高,AI对他们的提效非常明显。
协同场景:文档总结,扩写,自动生成PPT,类似Worksuit场景。
Canva也在依靠AI+视觉进一步挖掘Worksuit客户。
图层和锚点的设计习惯也可能改变:
例如在Canva的设计流程以及Canva AI上就不依赖图层和锚点,是直接奔着结果去的。
AI可以让没有设计基础,没学过素描,没学过立体/色彩构成的普通人,完成设计方案。
长期来看AI如果能做到言出法随,完全跳过固有的流程,那也可以不依赖图层、锚点。
客户很多时候要的是一个细颗粒度的整体方案:
例如对电商客户来讲,同样是商品图的背景生成,要让图片不变形,文字细节不失真,以及效果符合他对应消费者的偏好,那需要根据客户情况做调整。也需要结合客户的SKU库,以及客户特有的审批流程。
在工业设计场景客户也会有更高的要求。客户要的不是一个单纯的文生图的产品,客户要的是一个概念图到生产环节的相对更全套的工具。
真正在2B场景,不是看Point Product,还是要一个细颗粒度的整体方案。
小红书和抖音上有很多AI设计流程,但是真正到企业场景,对可控性和稳定性的要求很高,客户很难直接用几个点产品复制。
长期看希望能提供给客户一套低代码的工具:
未来的AI设计产品应该能给客户一套低代码就能够完成Finetune的工具,满足客户的可控性和稳定性要求。
但目前还是需要一个咨询团队,或者先给客户工具,客户有问题再帮客户解决。
以及设计师群体与程序员群体不太一样,可能游戏公司的设计师群体对于AI工具的动手能力很强,大多数设计师还是需要一套即插即用的工具。
客户对云化的接受程度不错:
产品模型经常更新,云端产品更好更新。
极少数的KA大客户会要求本地化,主要是出于数据合规需求。
不一定都需要A100,很多客户用3080或者更差的显卡就能做了。
但比如一张A100部署一个SD中大模型,但比如优化好的Nolibox可以一张消费级卡部署几十个模型,生成速度也会更快。
在算力需求上,也会取决于模型的优化程度。
客户在付费时候的痛点:
性价比不也是最核心的,最核心的还是效果,能不能提高整个设计流程的ROI。
对于效果,客户一般会有一些定制化的需求,但如果能完成需求,客户的付费能力都还是不错的。
如果客户场景合适,中国的KA客户也能给出人均100到大几百的付费。
好品类的垂直场景可以衍生成标准化产品:
例如电商领域很多大客户的定制化需求,在打磨好后是可以向中腰部客户延伸的。
而且在头部客户的需求明确,为头部客户解决问题带来的ROI也高,付费能力也强。
模型的差异在垂直场景理解与风格化:
文生图模型之前可能主要在功能和性能上面,但随着不断地优化,也比较趋同。
垂直场景理解:比如行业自然语言,类似于行业名人,地标建筑,指定物体,模型是否可以准确的理解。
风格化:例如Midjourney与Dalley2生成的图片风格就有很大区别;而这些文生图模型在中国也很难做出水墨画风格的图片,因为底层都是欧美人做的。
设计师现阶段会偏向于用一个模型:
设计师都会有自己的风格,能力集不是全能的,会挑选最适合自己的模型。
另外真使用模型后,也需要做落地的Finetune,例如需要二次元画风,需要暗黑画风,Finetune也有前期成本,而且越Finetune就越适合设计师需求。
可能只有非常大的公司才会选用几个模型,其他大部分公司的设计师需求都是比较垂,有自己的擅长领域的。
【讨论会】
我们已经组织了七期“AI颠覆软件讨论会”,前面六期分别是数据库、游戏软件、生成式广告、办公协同CRM、AI与产品经理、网络安全、设计工具,分别邀请了行业里面最资深的从业者、创业者朋友。
第一期纪要请见《EP01:AI如何颠覆数据库讨论纪要》。
第二期纪要请见《EP02:AI如何颠覆游戏讨论纪要》。
第三期纪要请见《EP03:生成式广告讨论纪要》。
第四期纪要请见《EP04:AI如何颠覆办公与CRM讨论纪要》。
第五期纪要请见《EP05:AI时代产品经理的新要求讨论纪要》。
第六期纪要请见《EP06:AI如何颠覆网络安全讨论纪要》。
第八期讨论会我们将于本周日(8.13)上午10点举办《AI如何颠覆可观测性工具讨论会》,本次讨论会邀请到了业界知名可观测性软件公司观测云的CEO Samuel老师,同时还会有其他资深嘉宾老师。
所有的讨论纪要,请关注公众号“共识粉碎机”,在功能界面“芋圆子”→“讨论纪要”。
感兴趣加入后续讨论会活动的,请私信后台“微信号”、“工作单位”、“擅长什么AI方向的讨论”。
【AI如何颠覆软件:你能为AI打工吗】