背景
在视觉设计领域中,设计师们往往会因为一些简单需求付出相当多的时间,比如修改文案内容,设计简单的海报版式,针对不同机型、展位的多尺寸拓展等。这些工作需要耗费大量的时间、人力成本(5~6 张/人日),但对设计师的进步成长起到的作用却非常有限。另一方面,精准营销是未来的大趋势,在大流量背景下,首页的海报资源展位需要展示“千人千面”的效果,这对海报的生产效率也提出了非常高的要求。所以,我们美团外卖技术团队尝试结合 AI 技术,来协助设计师避免这种低收益、高重复的任务,同时低成本、高效率、高质量地完成海报图片的生成。本文以 Banner(横版海报)为例,介绍我们在海报设计与 AI 技术结合方面所进行的一些探索和研究。
分析
什么是 Banner 的设计过程?我们尝试总结了对 Banner 设计的理解,Banner 的设计过程是一系列的具备某种特征属性的素材图层的有序叠加过程。这里的特征属性既包括颜色、形状、纹理、主题等视觉属性,也包括位置、大小、贴边等空间属性。在这个过程中,哪些环节可以被机器算法所探索呢?文献[1]研究了如何调整图像的颜色分布,使杂志封面的视觉效果更加符合人眼的视觉特性;文献[2]以此为基础,引入了基于显著性识别的图像裁剪,并使用优化方法来解决布局问题。阿里巴巴的“鹿班”系统在去年双十一当天,生成 1.7 亿张 Banner,京东内部也在孵化玲珑和莎士比亚系统,更加智能地设计文案和 Banner。
图 1 封面配色 &布局设计[2]
在设计领域的一些子问题上,可以用算法来挖掘出数据背后的规律(如图 1 所示)。那么,能否构建一个完整的学习算法和处理系统,统一解决 Banner 设计中所有的子问题(配色、布局、搭配、生成)呢?
技术方案
素材图层是 Banner 的基础元素,其本身可以被 特征化,同时组成 Banner 的若干元素间的叠加顺序可以被 序列化,因此,算法实际是在学习“在什么时候,选择某种素材,放在哪里”。
图 2 流程框架
如图 2 所示,为了解决这个问题,我们设计规划器、优化器、生成器来共同构建海报设计的 学习与生产 过程。其中:
规划器从数据中学习设计师对不同风格下的设计习惯与规律;
优化器基于美学质量和设计原则,对前者的输出结果做精细化调整;
最后,由生成器选取/生成素材并渲染成图;
素材库作为这三个环节的基础,负责 素材管理 和 素材标签化。
素材库
如何提取素材图片的特征属性,这是比较典型的分类问题。在计算机视觉领域,传统方案是提取图像的颜色、梯度等低级语义特征[3],结合传统的分类器(LR、SVM 等)来实现分类。近年来,基于深度学习的方法因为能表达更为复杂的语义特征,逐渐成为主流方法[4]。如图 3 所示我们提取传统的低级语义特征,以及基于 CNN 的高级语义特征,来共同完成素材 特征属性提取。
图 3 素材库-特征提取
规划器
完成素材的数据化工作后,怎样学习 Banner 的设计过程?
作为一种生成模型,对抗生成网络(GAN)[5]在近年广为应用,其优势是可以端到端地训练图像生成模型,但在我们的应用场景下,GAN 存在以下两个问题:
GAN 的过程更像是“黑盒”的过程:输入方面,虽然 Conditional-GAN 之类的方法可以实现某种程度有条件地可控生成,但对于 Banner 设计任务来说,其输入信息(文案、目标风格、主体信息)仍然过于复杂;
输出方面,GAN 直接生成源数据(即图像),但非常缺乏解释性。我们需要的是更加直观、更有解释性的信息,比如素材的类型、颜色、轮廓、位置等。
在上文中有提到,Banner 设计过程是 素材图层依次叠加 的过程。因此,我们可以用 序列生成模型 来拟合这个过程[6]。在建模过程中,我们把素材视作词汇(Word),海报视作句子(Sentence),词汇索引视为离散化的特征索引,素材叠加顺序就可以视为句子中的词顺序[7]。
图 4 规划器-序列生成
图 4 是我们使用的序列生成模型,输入主体信息和目标风格,输出素材特征的序列。为了增强预测过程中多条路径结果的多样性,我们在监督性地训练每个时刻的输出之外,还引入了评估整个序列合理性的 Object loss。如图 5 所示,借鉴 SeqGAN 的思想,Object loss 可以由判别器来提供[8]。
图 5 SeqGAN[8]
优化器
规划器预测素材的量化特征,为了确保最终成图符合美学标准,需要一个后处理的过程(图 6)。我们用优化器来解决这个问题。从本质上讲,这是一个 优化过程。通过和设计师们的沟通,我们设计了一些基于常规设计理念和美学标准的目标函数,动作集合包括移动、缩放、亮度调整等,结合优化方法,提升 Banner 的视觉效果。
图 6 优化器
生成器
优化后的素材特征序列,通过生成器来渲染成图。如图 7 所示,对于素材库检索不到符合某种特征属性的素材的情况,我们设计了图像风格迁移的方法来实现图像特征迁移。这里的特征可以是颜色、形状、纹理等低级特征,也可以是某种语义化的视觉风格特征,对后者来说,可以将源图像的内容 Content 和目标图像的风格 Style 在某种特征空间(CNN 中的某一层)里做融合,实现 风格迁移 [9,10]。
图 7 素材生成
应用场景及功能拓展
“千人千面”的精准营销是未来营销策略的趋势,这对商品素材的丰富性提出了非常高的要求;从为商家赋能的角度来说,也需要为商家提供更多样的海报版式,这也要求系统具备海报风格的快速学习能力和拓展能力。对此,在常规设计风格的研究之外,我们从以下 3 个方面做了一些拓展研究。
主体图片加工
商品素材的丰富度与美学质量是精细化营销及海报美学质量非常重要的一环。其中最核心的要求是图像分割的能力[11,12]。以全卷积网络(FCN)为基础,如图 8 所示,我们采取以下几个在目标分割领域常见的技巧,来实现商品图片的目标分割:
Encoder-Decoder 结构
空洞卷积
多尺度特征融合
Two-Stage 微调网络
图 8 图像语义分割 &抠图(结构图部分参考 DeepLab v3+[12])
这种基于语义分割方法的结果,在专业设计师人工评审质量的过程中,发现主体边缘有时会出现明显的锯齿感。经过分析,我们认为有以下两个原因:
语义分割模型把问题建模为一个“像素级分类过程”,每一个像素的类别都天然地被假设为“非此即彼”,大多数的 Segmentation 模型都采用 Cross-Entropy 作为损失函数;
因此,无论是从模型结构(CNN)还是从损失函数的角度来说,分割模型会更倾向于全局信息从而丢弃局部结构信息,导致只能得到边缘比较粗糙的分割结果。
为此,如图 8 所示,我们在图像分割的输出结果之外,结合了 Image Matting 方法:
对分割模型的输出结果做形态学变换,生成三值 Trimap,分别表示前景区、背景区、未知区;
应用常规的 Matting 方法,比如 Bayesian、Close-Form 等,以原图像和 Trimap 图像为输入,输出前景图的 Alpha 通道;
Matting 可以使前景主体的边缘更加平滑,视觉质量更高(图 9)。
图 9 商品主体抠图
另外,基于图像美学质量评分模型,我们会优先选择质量分高的图片作为主体素材来源。对中低分的图片,未来可以考虑借鉴 Cycle-GAN[13]的思想,设计基于半监督和 GAN 的图像增强网络,美化后再经过图像分割产生主体素材。
海报模板拓展
上述的常规设计风格的学习属于一种广义的设计风格,需要设计师先期投入很多精力做风格划分以及数据收集、处理。为了快速适配热点场景,我们借鉴 图像检索 技术(如图 10 所示),提取素材图片的 CNN 特征及颜色特征,使用欧式距离来度量素材相似度,这能节省人工打标签的成本,实现基于固定模板的自动拓展及生成(海报临摹)。
图 10 素材图像检索与模板拓展
多分辨率拓展
在日常工作中,设计师在设计出 Banner 后,往往要花费很长时间对不同展位、不同版本、不同机型做多尺寸适配(如图 11 所示)。能否用算法来协助人工提效?在素材已经确定,并且相互的位置关系近乎确定的条件下做多分辨率适配,这本质上是一个 优化问题,我们在上文布局优化器的基础上,增加元素的局部相对位置与全局绝对位置的拓扑关系作为目标函数。目前,系统支持在某个固定宽高比 ±30%范围内的任意分辨率适配,未来会进一步扩大适配范围。
图 11 多分辨率拓展
总结
目前,我们的 Banner 智能设计系统为钻展(外卖首页广告位)、商家店铺装修等业务提供稳定的设计能力;素材加工等子能力也在为外卖、闪购等商品图片提供技术支持。后续我们会从扩展常规设计风格、语义相关的颜色及素材挖掘、自动解析数据、构建自评估学习闭环等方面继续研究,进一步提高算法的设计能力和适用性,尽可能协助设计师提高效率,降低高重复性工作的时间和经济成本。
参考文献
[1] A. Jahanian, J. Liu, D. Tretter, Q. Lin, E. O’Brien-Strain, S. Lee, N. Lyons, and J. P. Allebach. “Automatic Design of Colors for Magazine Covers”. In Proc. IS&T/SPIE Electronic Imaging, International Society for Optics and Photonics, 2013
[2] X. Y. Yang, T. Mei, Y. Q. Xu, Y. Rui, S. P. Li. “Automatic Generation of Visual-Textual Presentation Layout”. ACM Transactions on Multimedia Computing, Communications, and Applications, 2017
[3] David G. Lowe. “Distinctive Image Features from Scale-Invariant Keypoints”. International journal of computer vision, 2004
[4] Alex Krizhevsky, Ilya Sutskever, Geoffrey E. Hinton. “ImageNet Classification with Deep Convolutional Neural Networks”. NIPS, 2012
[5] I. Goodfellow, J. Pouget-Abadie, M. Mirza, B. Xu, D. Warde-Farley, S. Ozair, A. Courville, Y. Bengio. “Generative Adversarial Networks”. NIPS, 2014
[6] K. Kawakami. “Supervised Sequence Labelling with Recurrent Neural Networks”. Studies in Computational Intelligence, 2008
[7] T. Mikolov. “Statistical Language Models based on Neural Networks”. 2012
[8] L. Yu, W. Zhang, J. Wang, Y. Yu. “SeqGAN: Sequence Generative Adversarial Nets with Policy Gradient”. AAAI, 2017
[9] L.A. Gatys, A.S. Ecker, M. Bethge. “Image Style Transfer Using Convolutional Neural Networks”. CVPR, 2016
[10] Y. Li, M.Y. Liu, X. Li, M.H. Yang, J. Kautz. “A Closed-form Solution to Photorealistic Image Stylization”. ECCV, 2018
[11] J. Long, E. Shelhamer, T. Darrell. “Fully Convolutional Networks for Semantic Segmentation”. CVPR, 2015
[12] L.C. Chen, Y. Zhu, G. Papandreou, F. Schroff, H. Adam. “Encoder-Decoder with Atrous Separable Convolution for Semantic Image Segmentation”. ECCV, 2018
[13] J.Y. Zhu, T. Park, P. Isola, A. A. Efros. “Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks”. ICCV, 2017
作者简介
晓星,2017 年 6 月加入美团,目前主要负责美团外卖图像内容挖掘、增强、生成方面的相关工作,致力于图像相关技术的积累及落地。
评论