虹口品牌网站建设,北京医疗网站建设公司排名,东莞高森网络营销,哪些网站自己做宣传BLIP2的任务是基于已有的固定参数的图像encoder和语言大模型#xff08;LLM#xff09;搭建一个具有图像理解能力的图文模型#xff0c;输入是图像和文本#xff0c;输出是文本。
BLIP2基于Q-Former结构#xff0c;如下图所示。Q-Former包含图像transformer和文本transfo…BLIP2的任务是基于已有的固定参数的图像encoder和语言大模型LLM搭建一个具有图像理解能力的图文模型输入是图像和文本输出是文本。
BLIP2基于Q-Former结构如下图所示。Q-Former包含图像transformer和文本transformer两个transformer。两个transformer的self-attention layer是共享的。图像transformer的输入是固定数量的可学习的query embedding。query embedding先通过self-attention和文本交互再并通过cross-attention和图像特征交互。Q-Former的cross-attention的参数随机初始化其他参数用bert的参数初始化。Q-Former的优势是可以从图像encoder中提取出固定长度的特征。 BLIP2的训练分为两步
从固定参数的图像encoder学习视觉文本编码有Image-Text Contrastive Learning (ITC)、Image-grounded Text Generation (ITG) 、Image-Text Matching (ITM)三个训练目标。从固定参数的LLM学习理解图片生成文本。通过FC层连接Q-Former将queries的映射到和文本token相同维度拼接在文本前面。 图像encoder选择了CLIP的ViT-L/14和EVA-CLIP的ViT-G/14。LLM选择了OPT和FlanT5。
训练数据包含129M幅图片来自COCO、Visual Genome、CC3M、 CC12M、SBU、 LAION400M。互联网图片使用CapFilt方法生成文本描述。