1 Star 0 Fork 457

SelwynLee / mindformers_r1.0

forked from MindSpore / mindformers 
加入 Gitee
与超过 1200万 开发者一起发现、参与优秀开源项目,私有仓库也完全免费 :)
免费加入
克隆/下载
contrastive_language_image_pretrain.md 2.33 KB
一键复制 编辑 原始数据 按行查看 历史
Lin 提交于 2023-11-08 16:01 . fix docs.

Contrastive Language Image Pretrain

任务描述

语言图像对比预训练:对模型进行图文对比学习,增强模型对文本图片的匹配度认识能力,预训练完的模型可用于零样本图像分类等下游任务

相关论文 Alec Radford, Jong Wook Kim, et al., Learning Transferable Visual Models From Natural Language Supervision, 2021.

已支持数据集性能

model type Datasets Performance stage example
clip clip_vit_b_32
clip_vit_b_16
clip_vit_l_14
clip_vit_l_14@336
Flickr8k -- pretrain link

Flickr8k(链接,密码: s4be)

  • 数据集大小:2.2G,共8000张彩色图像,每张图像都与五个不同的标题配对,这些标题提供了对图片中物体和事件的内容描述
    • 训练集:6000张图像
    • 验证集:1000张图像
    • 测试集:1000张图像
  • 数据格式:RGB
数据集目录格式
└─Flickr8k
   ├─Flickr8k_Dataset
   |      └─Flickr8k_Dataset
   └─Flickr8k_text
          ├─Flickr8k.devImages.txt
          ├─Flickr8k.testImages.txt
          ├─Flickr8k.trainImages.txt
          └─Flickr8k.token.txt

快速任务接口

  • Trainer接口开启训练:
import mindspore; mindspore.set_context(mode=0, device_id=0)
from mindformers import MindFormerBook
from mindformers.trainer import Trainer

# 显示Trainer的模型支持列表
MindFormerBook.show_trainer_support_model_list("contrastive_language_image_pretrain")
# INFO - Trainer support model list for contrastive_language_image_pretrain task is:
# INFO -    ['clip_vit_b_32', 'clip_vit_b_16', 'clip_vit_l_14', 'clip_vit_l_14@336']
# INFO - -------------------------------------

# 初始化trainer
trainer = Trainer(task='contrastive_language_image_pretrain',
    model='clip_vit_b_32',
    train_dataset='./Flickr8k'
)

trainer.train()
Python
1
https://gitee.com/selwynlee/mindformers_1.git
git@gitee.com:selwynlee/mindformers_1.git
selwynlee
mindformers_1
mindformers_r1.0
dev

搜索帮助