港中大和商汤提出HPS v2:为文本生成图像模型提供更可靠的评价指标

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【扩散模型和Transformer】交流群

cd09e133fc2106ed26ba04b353adba82.png

TL;DR 本文提出了一个目前数据量最大的、涵盖面最广、反应人类对生成图像喜爱程度的数据集:HPD v2, 并基于该数据集,提出了目前泛化性最强的“人类喜好评估模型”:HPS v2。HPS v2可以类比为ChatGPT中的reward model,可以用于图像生成模型的对齐以及评估。

论文:https://arxiv.org/abs/2306.09341

代码:https://github.com/tgxs002/HPSv2

背景

文生图模型的出现颠覆了人类的绘图方式,只需寥寥数字便可根据描述生成逼真的图像。然而,不少工作已经证明现有的评价指标(例如FID,IS,CLIP Score等)无法有效预测人们对于生成图像的喜好程度。

2ee7b1130a85134c733f0184d872e131.png

人类偏好数据集 HPD v2

为了解决这个问题,本文推出了一个名为HPD v2的全新数据集,它类似InstructGPT论文中的compaison data,包含了0.8M图片之间的comparison,反映了人们对不同图像的喜爱程度,是目前同类型数据集中最大的一个。

5a63755ee0fd81f6ecce56f9a547a389.png

如上图所示,我们先对COCO Caption和DiffusionDB的文本进行清洗,去除繁杂的风格词汇。再用Stable Diffusion,DALL-E等近十个文生图模型(如下表所示),生成了超过43万张图片。我们请标注员对这些图片按组进行排序,从而构成我们的数据集。下图展示了我们的图像来源分布。

a0999344c16ff42c53e66b128b1d61e9.png

人类偏好分数 HPS v2

通过对HPD v2数据集的训练,我们训练了一个模型来拟合人类对图像的喜好:HPS v2。实验结果显示,HPS v2比以前的模型(包括 HPS v1、ImageReward 和 PickScore等)具有更好的泛化能力,并可作为文生图模型更好的评估指标。

a38ef076d1ea9f335c2a5d1a26747729.png

在下图中,我们展示了由6个开源文生图模型生成的图像的HPS v2指标,可以看到,HPS v2 与人类的主观感受有良好的一致性。

060bb6d05107e47407270dfa7930df20.png

文生图模型评价基准

为了方便后续文生图模型的比较,我们还提出了一套稳定、公正且易用的测试文本,并用HPS v2对来自学术界和工业界最新的文生图模型进行测试,构建了一个较为完备的评价基准,如下表所示所示。

58d31a7dc17e7548407a670cf582d178.png

我们期望我们提出的人类偏好分数HPS v2和文生图模型评价基准,可以为文生图模型的研发提供一个客观的衡量标准,从而促进文生图领域研究的发展。

如何优化HPS v2?

本文提出两个简单的方案,可以提高生成图像的分数,为后续研究工作抛砖引玉。一个是用参考图像的特征提供更好的文生图初始化噪声。我们发现,在训练Stable Diffusion时,模型并没有见过纯噪声的输入,但推理时模型的输入却是从纯噪声开始的,这与训练阶段不一致。基于这一观察,我们尝试将参考图像的特征与随机噪声混合作为初始化噪声。如下图所示,我们的方法有效地提高了生成图像的HPS v2,并提高了对于生成结果的控制力度。

9257a4b51e1404fc4dd003656ddca72a.png

第二个方案是如HPS v1中介绍的,在关键词中给定一些有助于提高质量的标记。我们在此进行了量化的对比。如下表所示,这两种方法均提升了生成图像的HPS v2值,其中给定额外的标记能大幅提升生成质量。

da625cce8ebc5690aec01f7db8635f6e.png

总结

本文提出了目前数据量最大、覆盖模型最多的、反映人类对生成图像喜爱度的数据集HPD v2,并基于该数据集提出了最具泛化性的人类喜好评估模型HPS v2和一套稳定、公正、易用的文生图模型的评价基准。本工作为文本到图像生成模型的质量评估提供了一种新的方法,为模型改进和进一步研究提供了有力支持。

点击进入—>【扩散模型和Transformer】交流群

最新CVPR 2023论文和代码下载

 
  

后台回复:CVPR2023,即可下载CVPR 2023论文和代码开源的论文合集

后台回复:Transformer综述,即可下载最新的3篇Transformer综述PDF

扩散模型和Transformer交流群成立
扫描下方二维码,或者添加微信:CVer333,即可添加CVer小助手微信,便可申请加入CVer-扩散模型或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer等。
一定要备注:研究方向+地点+学校/公司+昵称(如扩散模型或者Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲扫码或加微信号: CVer333,进交流群
CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉,已汇集数千人!

▲扫码进星球
▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看3c2722c5fd4515262b1740dc3b33bc98.gif

猜你喜欢

转载自blog.csdn.net/amusi1994/article/details/131566719