当前位置: 首页 > news >正文

手搓多模态-06 数据预处理

前情回顾

我们目前实现视觉模型编码部分然而我们所做一张图片编码嵌入许多上下相关嵌入向量然而我们期望一张图片一个向量表示从而文字向量点积形成相似度参考手搓多模态-01 对比学习的优化)所以我们需要一个Linear Projection多个嵌入向量投影一个嵌入向量这些可以之后数据准备阶段我们还有一些数据预处理工作没有本文着重描述如何进行数据预处理

数据预处理

我们新建一个文件paligemma_processer.py.

首先我们创建一个processerprocesser我们实现数据预处理功能

所做预处理主要包括

  • 图像放缩标准化
  • 输入图像-文本对解析形成token向量
  • 图像token创建占位表示Gemma模型输入有一部分输入向量来自视觉编码这部分向量暂时就用一个临时image_token表示方便后面替换
  • 对于图像输入我们需要输入转换形如[Batch_size,Channels,Height,Width]输入,转换torch.tensor类型方便pytorch处理

这部分代码主要如下

class PaligemmaProcessor:	IMAGE_TOKEN = "<image>"def __init__(
			self,
			tokenizer,
			num_image_tokens,
			image_size  ):super().__init__()
		self.image_seq_lenth = num_image_tokens
		self.image_size = image_size		token_to_add = {"addtional_special_tokens": [self.IMAGE_TOKEN]} ##标识图像占位符
		tokenizer.add_special_tokens(token_to_add)
		EXTRA_TOKENS = [f"<loc:{i:04d}>" for i in range(1024)] ##用于目标检测
		EXTRA_TOKENS += [f"<seg:<{i:04d}>" for i in range(1024)] ##用于语义分割		tokenizer.add_tokens(EXTRA_TOKENS)
		self.image_token_id = tokenizer.convert_tokens_to_ids(self.IMAGE_TOKEN) ##图像占位符的id		tokenizer.add_bos_token = False ##去掉默认的bos和eos
		tokenizer.add_eos_token = False		self.tokenizer = tokenizerdef __call__(
			self,
			text: List[str],
			images: List[Image.Image],
			padding: str = "longest",
			truncation: bool = True):assert len(text) == 1 and len(images) == 1, "Only support one text and one image for now."		pixel_values = process_images(
			images,
			size=(self.image_size, self.image_size),
			resample= Image.Resampling.BICUBIC,
			rescale_factor=1.0 / 255.0,
			image_mean = IMAGENET_STANDARD_MEAN,
			image_std = IMAGENET_STANDARD_STD)		pixel_values = np.stack(pixel_values,axis=0)
		pixel_values = torch.tensor(pixel_values) ##转换为torch.tensor##通过add_image_token_to_prompt函数,将图像占位符添加到文本中,形成一个输入prompt
		input_string = [
			add_image_token_to_prompt(
				prefix_prompt = prompt,
				bos_token = self.tokenizer.bos_token,
				image_seq_len = self.image_seq_lenth,
				image_token = self.IMAGE_TOKEN)for prompt in text]## 将string类型的prompt转换为嵌入向量,其实这里是根据string中的词元划分成一个token_id的向量## 比如输入的string是"<image><image><bos>hello,world<sep>" 然后tokenizer将其分割成[<image>,<image>,<bos>,hell,oworld,<sep>],这里假设hell和oworld都是token,并查找每个token的id,可能得到[0,0,1,11,15,2]作为嵌入向量
		inputs = self.tokenizer(
			input_string,
			padding=padding,
			truncation=truncation,
			return_tensors="pt")## 返回待编码的图像以及嵌入好的文本向量
		return_data = {"pixel_values": pixel_values, **inputs}return return_data

首先我们tokenizer 添加一些额外特殊token比如用于目标检测特殊位置token以及语义分割特殊token但是我们暂时不会用到它们

图像处理

数据预处理部分我们首先通过一个预处理函数处理图像这里包括图像缩放归一化标准化

		pixel_values = process_images(
			images,
			size=(self.image_size, self.image_size),
			resample= Image.Resampling.BICUBIC,
			rescale_factor=1.0 / 255.0,
			image_mean = IMAGENET_STANDARD_MEAN,
			image_std = IMAGENET_STANDARD_STD)

函数实现如下

def process_images(
		images: List[Image.Image],
		size: Tuple[int, int] = None,
		resample: Image.Resampling = None,
		rescale_factor: float = None,
		image_mean: Optional[Union[float,List[float]]] = None,
		image_std: Optional[Union[float,List[float]]] = None
) -> List[np.ndarray]:
	height, width = size
	images = [
		resize(image =image, size = (height,width), resample=resample) if image.size != size else image for image in images]
	images = [np.array(image) for image in images]
	images = [
		rescale(image = image, factor = rescale_factor) for image in images] ## 归一化缩放
	images = [
		normalize(image = image, mean = image_mean, std = image_std) for image in images] ## 标准化## image : [Height,Width,Channel] --> [Channel,Height,Width]
	images = [image.transpose(2,0,1) for image in images]return images

首先我们需要图像进行缩放那么这里涉及一个重采样函数表示你用什么方法图像进行缩放采样不同方法采样出来效果不一样这里我们Image.Resampling.BICUBIC方法关于这个方法详细信息参考其他博客

缩放操作在将0-255像素缩放0-1防止之后模型嵌入数值不稳定

随后标准化其实就像Batch NormalizationLayer Normalization一样图像像素分布标准正态分布所以需要大量图像RGB通道各自均值方差使用image_net统计结果

然后图像三个维度顺序改变一下

其中resize,rescale,normalize函数依次如下

IMAGENET_STANDARD_MEAN = [0.485, 0.456, 0.406]
IMAGENET_STANDARD_STD = [0.229, 0.224, 0.225]def resize(
		image: Image.Image,
		size: Tuple[int, int],
		resample: Image.Resampling = None,
		reducing_gap: Optional[int] = None
):
	height,width = size	
	image.resize(size=(width,height),resample=resample,reducing_gap=reducing_gap)return imagedef rescale(
		image: np.ndarray,
		factor: float,
		dtype: np.dtype = np.float32
):
	image = image * factor
	image = image.astype(dtype)return imagedef normalize(
		image: np.ndarray,
		mean: Optional[Union[float,List[float]]] = None,
		std: Optional[Union[float,List[float]]] = None
) -> np.ndarray:if mean is None:
		mean = IMAGENET_STANDARD_MEANif std is None:
		std = IMAGENET_STANDARD_STD
	mean = np.array(mean)
	std = np.array(std)
	image = (image - mean) / stdreturn image

然后我们还需要输出图像信息转换torch.tensor这里转换代码如下

pixel_values = np.stack(pixel_values,axis=0)
pixel_values = torch.tensor(pixel_values) ##转换为torch.tensor

首先stack方法一个numpy tensor list转换一个tensor,然后再把numpytensor转换torchtensor.

token 处理

token处理主要这一部分

		##通过add_image_token_to_prompt函数,将图像占位符添加到文本中,形成一个输入prompt
		input_string = [add_image_token_to_prompt(
				prefix_prompt = prompt,
				bos_token = self.tokenizer.bos_token,
				image_seq_len = self.image_seq_lenth,
				image_token = self.IMAGE_TOKEN)for prompt in text]## 将string类型的prompt转换为嵌入向量,其实这里是根据string中的词元划分成一个token_id的向量## 比如输入的string是"<image><image><bos>hello,world<sep>" 然后tokenizer将其分割成[<image>,<image>,<bos>,hell,oworld,<sep>],这里假设hell和oworld都是token,并查找每个token的id,可能得到[0,0,1,11,15,2]作为嵌入向量
		inputs = self.tokenizer(
			input_string,
			padding=padding,
			truncation=truncation,
			return_tensors="pt")## 返回待编码的图像以及嵌入好的文本向量
		return_data = {"pixel_values": pixel_values, **inputs}

首先我们构造输入string文本这个构造主要依照论文内容

论文构造输入首先image token占位然后一个bos表示文本信息的开始然后text input然后[sep]论文'\n'表示[sep]

于是我们add_image_token_to_prompt所示

def add_image_token_to_prompt(
		prefix_prompt: str,
		bos_token: str,
		image_seq_len: int,
		image_token: str
):##论文使用换行符当做[sep]token,但是可能会出现\n与前面的token重叠导致语义信息丢失。	return f"{image_token * image_seq_len}{bos_token}{prefix_prompt}\n"

这里可能出现一个问题论文使用换行符当做[sep]token,但是可能会出现\n与前面的token重叠导致语义信息丢失这里我们暂时不管这个问题

随后tokenizer调用实际输入string根据词汇拆分一个个token对应id,我们预选添加image_token占位符也就是我们构建string_input可能类似"<image><image><bos>hello,world<sep>",tokenizer根据词汇表划分这些token一个list[<image>,<image>,<bos>,"hell","oworld",<sep>],然后通过查表方式这些token转换数值id比如查到我们加入<image>对应id0,<bos>是1, <sep>是2,"hell,"是11,"oworld"是15,(注意,这里假设词汇表的"hell,"是一个token,"oworld"也是一个token)那么输出可能形如[0,0,1,11,15,2]

## 将string类型的prompt转换为嵌入向量,其实这里是根据string中的词元划分成一个token_id的向量
## 比如输入的string是"<image><image><bos>hello,world<sep>" 然后tokenizer将其分割成[<image>,<image>,<bos>,hell,oworld,<sep>],这里假设hell和oworld都是token,并查找每个token的id,可能得到[0,0,1,11,15,2]作为嵌入向量
inputs = self.tokenizer(
	input_string,
	padding=padding,
	truncation=truncation,
	return_tensors="pt"
)
## 返回待编码的图像以及嵌入好的文本向量
return_data = {"pixel_values": pixel_values, **inputs}
return return_data


http://www.mrgr.cn/news/97458.html

相关文章:

  • 操作系统概述(3)
  • nginx管理nacos集群地址
  • 剖析AI与5G:是夸大其词,还是时代变革的引擎?-优雅草卓伊凡
  • CMake实战指南一:add_custom_command
  • Linux学习笔记(2) 命令基础:从概念到实践(期末,期中复习笔记全)
  • Redis 的五种数据类型面试回答
  • 使用成员函数指针数组简化C++类中的操作
  • 计算机系统---性能指标(3)续航与散热
  • 基于大模型的GCSE预测与治疗优化系统技术方案
  • NVIDIA Jetson 环境安装指导 PyTorch | Conda | cudnn | docker
  • 面试题vue
  • Ubuntu 22 Linux上部署DeepSeek R1保姆式操作详解(Xinference方式)
  • AI Agent设计模式一:Chain
  • vue2拖拉拽做个模拟公式工具
  • 【零基础入门unity游戏开发——动画篇】Animation动画窗口,创建编辑动画
  • [C++面试] explicit关键字面试点总结
  • modprobe: can‘t open ‘modules.dep‘: No such file or directory
  • 使用NVM下载Node.js管理多版本
  • 下载安装Node.js及其他环境
  • Opencv计算机视觉编程攻略-第十节 估算图像之间的投影关系