中文CLIP模型多模态实战——零样本图像分类

如今深度学习领域有一个比较热门的领域叫做:多模态。多模态这个词整得比较玄学,但是其实主要思想就是将文本,图像,语音等不同类型的数据,放到同一个特征空间去表示,这样的好处就是可以将不同类型数据打通,在一个任务上利用到更多更全面的数据,来提升业务指标的效果。比如对搜索来说就可以通过多模态实现以文搜图,最火的stable diffusion model 文本生成图像也是多模态的一个场景。今天笔者就介绍一下目前比较火的一个多模态模型clip。
通过无监督对比学习的预训练方式将文本数据和图片数据表示到同一个特征空间,从而实现zero-shot 的图像分类。

CLIP 模型

CLIP(Contrastive Language–Image Pre-training )是由OpenAI开源的基于对比学习的大规模图文预训练模型,其整个架构如下图(1)所示:

  • 一个文本编码器,文本编码器可以是transformer。
  • 一个图像编码器,图像编码器可以是resnet50或vision transformer(ViT)等
  • 通过无监督的对比学习预训练将文本和图像联系起来

下图(2) (3)则是利用预训练好的模型进行零样本(zero shot)的文本分类

  • 将所有labels的文本通过 文本编码器进行编码
  • 将要预测的图像通过 图像编码器进行编码
  • 在计算 图像编码 与 所有 labels 文本编码的 内积,取内积最大的那个作为预测label。
image.png

其中特别值得注意的一点是,clip 预训练的方式采用的在batch 内负采样的方式进行的对比学习,如下图所示:一个batch内,一个文本编码,只有与它对应的图像是正样本,其他的图像都是负样本。目标就是优化这个矩阵,希望对角线的值越大越好,矩阵其他地方的值越小越好。


image.png

实战部分

模型下载

笔者去huggface上搜索了一下clip,看是否有中文的clip模型,还真找到了一个
IDEA-CCNL的太乙多模态模型。它其实就是将openAI的图像编码器至今拿过来用,采用Roberta作为中文文本编码器,在Clip预训练的数据的汉化版上进行了进一步的预训练。其中太乙102M的文本编码器 对应的是openAI的 VIT-patch32的图像编码器。笔者将下方两个模型下载到本地。


image.png

项目目录结果如下图,其中openai32 下面就是openai放出的图像编码器,
clipChineseText 就是IDEA-CCNL的太乙文本模型编码器。


image.png

具体代码如下图,先加载太乙文本编码器,在加载openai的图像编码器。

from PIL import Image
import requests
# import clip
import torch
from transformers import BertForSequenceClassification, BertConfig, BertTokenizer
from transformers import CLIPProcessor, CLIPModel
import numpy as np

labels = ["猫", "狗",'猪', '虎']  # 这里是输入文本的,可以随意替换。
# 加载Taiyi 中文 text encoder
text_tokenizer = BertTokenizer.from_pretrained("./clip")
text_encoder = BertForSequenceClassification.from_pretrained("./clip").eval()
text = text_tokenizer(labels, return_tensors='pt', padding=True)['input_ids']


# 加载CLIP的image encoder
clip_model = CLIPModel.from_pretrained("openai32/")  
processor = CLIPProcessor.from_pretrained("openai32/")

加载完毕后,就可以进行无监督的图像分类预测了。过程和上方介绍的clip无监督文本分类的步骤一摸一样,先将labels = ["猫", "狗",'猪', '虎'] 用文本编码器进行编码,再将图片进行编码,计算和目标图像编码内积最大的那个作为预测label。

def get_label(url):
    image = processor(images=Image.open(url), return_tensors="pt")
    with torch.no_grad():
        image_features = clip_model.get_image_features(**image)
        text_features = text_encoder(text).logits
        # 归一化
        image_features = image_features / image_features.norm(dim=1, keepdim=True)
        text_features = text_features / text_features.norm(dim=1, keepdim=True)
        # 计算余弦相似度 logit_scale是尺度系数
        logit_scale = clip_model.logit_scale.exp()

        logits_per_image = logit_scale * image_features @ text_features.t()
        probs = logits_per_image.softmax(dim=-1).cpu().numpy()
        print(url+"的label是"+labels[np.argmax(probs)])


url = "./pig.jpg"  
get_label(url)
url = "./tiger.jpg"  
get_label(url)

在百度上下载了一种猪,一张虎的图,进行测试。


image.png
image.png

完全正确,零样本图像分类就这样完成了,clip的威力确实很强大。


image.png

结语

clip 不仅可以完成零样本图像分类,还可以完成以文搜图等,其文本特征和图像特征也可用于推荐的召回和排序阶段。总之多模态是一种趋势,不同数据的融合势必比单独使用要强一点。

https://aistudio.baidu.com/aistudio/projectdetail/4458949
https://github.com/IDEA-CCNL/Fengshenbang-LM

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,088评论 5 459
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,715评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,361评论 0 319
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,099评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 60,987评论 4 355
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,063评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,486评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,175评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,440评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,518评论 2 309
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,305评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,190评论 3 312
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,550评论 3 298
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,880评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,152评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,451评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,637评论 2 335

推荐阅读更多精彩内容