风格迁移
《从锅炉工到 AI 专家 (8)》中我们介绍了一个 "图片风格迁移" 的例子. 因为所引用的作品中使用了 TensorFlow 1.x 的代码, 算法也相对复杂, 所以文中没有仔细介绍风格迁移的原理.
今天在 TensorFlow 2.0 的帮助, 和新算法思想的优化下, 实现同样功能的代码量大幅减少, 结构也越发清晰. 所以今天就来讲讲这个话题.
"风格迁移" 指的是将艺术作品的笔触, 技法等表现出来的视觉效果, 应用在普通照片上, 使得所生成的图片, 类似使用同样笔触, 技法所绘制完成, 但内容跟照片相同的 "伪画作".
在神经网络机器学习的帮助下, 生成图片的观赏性非常高, 远非早期传统方法得到的图片可比.
这里重贴一遍前文中的例图, 让我们有一个更直观的感受.
首先是一张原程序作者的的自拍照:
接着不陌生, 著名大作《星空》:
(请将以上两图保存至工作目录, 不要修改文件名, 我们稍晚的代码中会用到.)
两张图片经过程序处理后, 会得到一幅新的图片:
即使用《星空》风格模仿的手绘作品《黄粱一梦》:)
基本原理
风格迁移原理基于论文《A Neural Algorithm of Artistic Style》 https://arxiv.org/abs/1508.06576 .
虽然论文中并没有明说, 但采用卷积神经网络做图像的风格迁移应当属于一个实验科学的成果而非单纯的理论研究.
我们再引用一张前系列讲解 CNN 时候的图片:
一张图片数据所形成的矩阵, 在经过卷积网络的时候, 图像中边缘等视觉特征会被放大, 强化, 从而形成一种特殊的输出. 通常我们只关心数据结果, 并没有把这些数据还原为图片来观察. 而论文作者不仅这样做了, 恐怕还进行了大量的实验.
这些神经网络中间结果图片具有如此典型的特征, 可以脱离出主题内容而成为单纯风格的描述. 被敏锐的作者抓住深入研究也就不奇怪了.
最终研究成果确立了卷积神经网络进行图片迁移的两大基础算法:
在神经网络中, 确定的抽取某些层代表内容的数字描述, 以及另外一些层代表风格的数字描述.
多个层的输出数据, 通过公式的计算, 拟合到同输入图像相同的色域空间. 这个公式即能用于代价函数中原始风格同目标风格之间的对比, 也可以变形后通过组合多个风格层, 生成新的目标图片.
本系列文章都是尽力不出现数学公式, 用代码讲原理.
在《从锅炉工到 AI 专家 (8)》引用的代码中, 除了构建神经网络, 训练, 主要工作是在损失函数降低到满意程度之后, 使用网络中间层的输出结果计算, 组合成目标图片. 原文中对这部分的流程也做了简介.
新的代码来自 TensorFlow 官方文档. 除了程序升级为 TensorFlow 2.0 原生代码. 在图片的产生上也做了大幅创新: 使用照片图片训练神经网络, 每一阶梯的训练结果, 不应用回神经网络 (网络的权重参数一直固定锁死的), 而把训练结果应用到图片本身. 在下一次的训练循环中, 使用新的图片再次计算损失值. 这样, 当损失值最小的时候, 训练图片本身就已经是符合我们要求的生成图片. 当然本质上, 跟前一种方法一样的. 但感觉上, 结构清晰了很多. 这个过程对比起来, 大量节省了图片生成的计算. 当然, 主要原因还是 TensorFlow 2.0 内置的 tf.linalg.einsum 方法强大好用.
在特征层的定义上, 照片内容的描述使用 vgg-19 网络的第 5 部分的第 2 层卷积输出结果. 艺术图片风格特征的描述使用了 5 个层, 分别是 vgg-19 网络的第 1 至第 5 部分第 1 个网络层的输出结果. 在程序中, 可以这样描述:
- # 定义最能代表内容特征的网络层
- content_layers = ['block5_conv2']
- # 定义最能代表风格特征的网络层
- style_layers = ['block1_conv1',
- 'block2_conv1',
- 'block3_conv1',
- 'block4_conv1',
- 'block5_conv1']
网络层的名称来自于 vgg-19 网络定义完成后, 各层的名称. 可以使用如下代码得到所有层的名称:
- ...
- # 建立无需分类结果的 vgg 网络
- vgg = tf.keras.applications.VGG19(include_top=False, weights='imagenet')
- # 显示 vgg 中所有层的名称
- print()
- for layer in vgg.layers:
- print(layer.name)
- ...
通常的模型训练, 都是使用代价函数比较网络输出结果, 和目标标注值的差异, 使得差异逐渐缩小.
本例的训练目标比较复杂, 可以描述为两条:
生成图片的风格层输出, 同艺术图片的风格层输出差异最小
生成图片的内容层输出, 同原始照片的内容层输出差异最小化
虽然这个代价函数略微复杂, 不过比 VAE 的代价函数还是简单多了:)
源代码
程序中的注释非常详细. 跟以前的程序有一点区别, 就是直接使用 TensorFlow 内置方法读取了图片文件, 然后调用 jpg 解码还原为矩阵.
不过 TensorFlow 内置的将图像 0-255 整数值转换为浮点数的过程, 会自动将数值变为 0-1 的浮点小数.
这个过程其实对我们多此一举, 因为我们后续的很多计算都需要转换回 0-255.
- #!/usr/bin/env python3
- from __future__ import absolute_import, division, print_function, unicode_literals
- import tensorflow as tf
- import matplotlib.pyplot as plt
- import matplotlib as mpl
- import numpy as np
- import time
- import functools
- import time
- from PIL import Image
- # 设置绘图窗口参数, 用于图片显示
- mpl.rcParams['figure.figsize'] = (13, 10)
- mpl.rcParams['axes.grid'] = False
- # 获取下载后本地图片的路径, content_path 是真实照片, style_path 是艺术品风格图片
- content_path = "1-content.jpg"
- style_path = "1-style.jpg"
- # 读取一张图片, 并做预处理
- def load_img(path_to_img):
- max_dim = 512
- # 读取二进制文件
- img = tf.io.read_file(path_to_img)
- # 做 JPEG 解码, 这时候得到宽 x 高 x 色深矩阵, 数字 0-255
- img = tf.image.decode_jpeg(img)
- # 类型从 int 转换到 32 位浮点, 数值范围 0-1
- img = tf.image.convert_image_dtype(img, tf.float32)
- # 减掉最后色深一维, 获取到的相当于图片尺寸 (整数), 转为浮点
- shape = tf.cast(tf.shape(img)[:-1], tf.float32)
- # 获取图片长端
- long = max(shape)
- # 以长端为比例缩放, 让图片成为 512x???
- scale = max_dim/long
- new_shape = tf.cast(shape*scale, tf.int32)
- # 实际缩放图片
- img = tf.image.resize(img, new_shape)
- # 再扩展一维, 成为图片数字中的一张图片 (1, 长, 宽, 色深)
- img = img[tf.newaxis, :]
- return img
- # 读入两张图片
- content_image = load_img(content_path)
- style_image = load_img(style_path)
- ############################################################
- # 定义最能代表内容特征的网络层
- content_layers = ['block5_conv2']
- # 定义最能代表风格特征的网络层
- style_layers = ['block1_conv1',
- 'block2_conv1',
- 'block3_conv1',
- 'block4_conv1',
- 'block5_conv1']
- # 神经网络层的数量
- num_content_layers = len(content_layers)
- num_style_layers = len(style_layers)
- # 定义一个工具函数, 帮助建立得到特定中间层输出结果的新模型
- def vgg_layers(layer_names):
- """Creates a vgg model that returns a list of intermediate output values."""
- # 定义使用 ImageNet 数据训练的 vgg19 网络
- vgg = tf.keras.applications.VGG19(include_top=False, weights='imagenet')
- # 已经经过了训练, 所以锁定各项参数避免再次训练
- vgg.trainable = False
- # 获取所需层的输出结果
- outputs = [vgg.get_layer(name).output for name in layer_names]
- # 最终返回结果是一个模型, 输入是图片, 输出为所需的中间层输出
- model = tf.keras.Model([vgg.input], outputs)
- return model
- # 定义函数计算风格矩阵, 这实际是由抽取出来的 5 个网络层的输出计算得来的
- def gram_matrix(input_tensor):
- result = tf.linalg.einsum('bijc,bijd->bcd', input_tensor, input_tensor)
- input_shape = tf.shape(input_tensor)
- num_locations = tf.cast(input_shape[1]*input_shape[2], tf.float32)
- return result/(num_locations)
- # 自定义 keras 模型
- class StyleContentModel(tf.keras.models.Model):
- def __init__(self, style_layers, content_layers):
- super(StyleContentModel, self).__init__()
- # 自己的 vgg 模型, 包含上面所列的风格抽取层和内容抽取层
- self.vgg = vgg_layers(style_layers + content_layers)
- self.style_layers = style_layers
- self.content_layers = content_layers
- self.num_style_layers = len(style_layers)
- # vgg 各层参数锁定不再参数训练
- self.vgg.trainable = False
- def call(self, input):
- # 输入的图片是 0-1 范围浮点, 转换到 0-255 以符合 vgg 要求
- input = input*255.0
- # 对输入图片数据做预处理
- preprocessed_input = tf.keras.applications.vgg19.preprocess_input(input)
- # 获取风格层和内容层输出
- outputs = self.vgg(preprocessed_input)
- # 输出实际是一个数组, 拆分为风格输出和内容输出
- style_outputs, content_outputs = (
- outputs[:self.num_style_layers],
- outputs[self.num_style_layers:])
- # 计算风格矩阵
- style_outputs = [gram_matrix(style_output)
- for style_output in style_outputs]
- # 转换为字典
- content_dict = {content_name: value
- for content_name, value
- in zip(self.content_layers, content_outputs)}
- # 转换为字典
- style_dict = {style_name: value
- for style_name, value
- in zip(self.style_layers, style_outputs)}
- # 返回内容和风格结果
- return {'content': content_dict, 'style': style_dict}
- # 使用自定义模型建立一个抽取器
- extractor = StyleContentModel(style_layers, content_layers)
- # 设定风格特征的目标, 即最终生成的图片, 希望风格上尽量接近风格图片
- style_targets = extractor(style_image)['style']
- # 设定内容特征的目标, 即最终生成的图片, 希望内容上尽量接近内容图片
- content_targets = extractor(content_image)['content']
- # 内容图片转换为张量
- image = tf.Variable(content_image)
- # 截取 0-1 的浮点数, 超范围部分被截取
- def clip_0_1(image):
- return tf.clip_by_value(image, clip_value_min=0.0, clip_value_max=1.0)
- # 优化器
- opt = tf.optimizers.Adam(learning_rate=0.02, beta_1=0.99, epsilon=1e-1)
- # 预定义风格和内容在最终结果中的权重值, 用于在损失函数中计算总损失值
- style_weight = 1e-2
- content_weight = 1e4
- # 损失函数
- def style_content_loss(outputs):
- style_outputs = outputs['style']
- content_outputs = outputs['content']
- # 风格损失值, 就是计算方差
- style_loss = tf.add_n([tf.reduce_mean((style_outputs[name]-style_targets[name])**2)
- for name in style_outputs.keys()])
- # 权重值平均到每层, 计算总体风格损失值
- style_loss *= style_weight/num_style_layers
- # 内容损失值, 也是计算方差
- content_loss = tf.add_n([tf.reduce_mean((content_outputs[name]-content_targets[name])**2)
- for name in content_outputs.keys()])
- content_loss *= content_weight/num_content_layers
- # 总损失值
- loss = style_loss+content_loss
- return loss
- ################################################################
- # 一次训练
- @tf.function()
- def train_step(image):
- with tf.GradientTape() as tape:
- # 抽取风格层, 内容层输出
- outputs = extractor(image)
- # 计算损失值
- loss = style_content_loss(outputs)
- # 梯度下降
- grad = tape.gradient(loss, image)
- # 应用计算后的新参数, 注意这个新值不是应用到网络
- # 作为训练完成的 vgg 网络, 其参数前面已经设定不可更改
- # 这个参数实际将应用于原图
- # 以求取, 新图片经过网络后, 损失值最小
- opt.apply_gradients([(grad, image)])
- # 更新图片, 用新图片进行下次训练迭代
- image.assign(clip_0_1(image))
- start = time.time()
- epochs = 10
- steps_per_epoch = 100
- step = 0
- for n in range(epochs):
- for m in range(steps_per_epoch):
- step += 1
- train_step(image)
- print(".", end='')
- print("")
- # 每 100 次迭代显示一次图片
- # imshow(image.read_value())
- # plt.title("Train step: {}".format(step))
- # plt.show()
- end = time.time()
- print("Total time: {:.1f}".format(end-start))
- ########################################
- # 保存结果图片
- file_name = 'newart1.png'
- mpl.image.imsave(file_name, image[0])
程序的输出结果如下图:
看起来基本达到了设计要求, 不过再仔细观察, 似乎效果虽然都有了, 但画面看上去有一点不干净, 有很多小的噪点甚至有了干涉纹.
这是因为, 在照片原图和艺术作品原图中, 肯定天然就存在有噪点以及图片中本身应当有的小而频繁的花纹. 这些内容在通过卷积加强后, 两幅照片再叠加, 这些噪声就被强化了, 从而在生成的图片中体现的非常明显.
这个问题如果在传统算法中可以使用高通滤波. 在卷积神经网络中则更容易, 是统计总体变分损失值 (Total Variation Loss), 在代价函数中, 让这个损失值降到最小, 就抑制了这种噪点的产生. 也相当于神经网络具有了降噪的效果.
变分损失是计算图片中, 在 X 方向及 Y 方向, 相邻像素的差值. 如果像素差别不大, 那差肯定很小甚至趋近于 0. 如果差别大, 当然差值就大.
请使用下面的代码, 替换上面程序中训练的部分:
- ###################################################
- # 计算 x 方向及 y 方向相邻像素差值, 如果有高频花纹, 这个值肯定会高,
- # 因为相邻点相同差值接近 0, 区别越大, 差值当然越大
- def high_pass_x_y(image):
- x_var = image[:, :, 1:, :] - image[:, :, :-1, :]
- y_var = image[:, 1:, :, :] - image[:, :-1, :, :]
- return x_var, y_var
- # 计算总体变分损失
- def total_variation_loss(image):
- x_deltas, y_deltas = high_pass_x_y(image)
- return tf.reduce_mean(x_deltas**2)+tf.reduce_mean(y_deltas**2)
- # 总体变分损失值在损失值中所占权重
- total_variation_weight = 1e8
- # 一次训练
- @tf.function()
- def train_step(image):
- with tf.GradientTape() as tape:
- # 抽取风格层, 内容层输出
- outputs = extractor(image)
- # 计算损失值
- loss = style_content_loss(outputs)
- loss += total_variation_weight*total_variation_loss(image)
- # 梯度下降
- grad = tape.gradient(loss, image)
- # 应用计算后的新参数, 注意这个新值不是应用到网络
- # 作为训练完成的 vgg 网络, 其参数前面已经设定不可更改
- # 这个参数实际将应用于原图
- # 以求取, 新图片经过网络后, 损失值最小
- opt.apply_gradients([(grad, image)])
- # 更新图片, 用新图片进行下次训练迭代
- image.assign(clip_0_1(image))
- # 内容图片作为逐步迭代生成的新图片, 一开始当然是原图, 这里是转换为张量
- image = tf.Variable(content_image)
- start = time.time()
- # 迭代 10 次, 每次 100 步训练
- epochs = 10
- steps = 100
- step = 0
- for n in range(epochs):
- for m in range(steps):
- step += 1
- train_step(image)
- print(".", end='')
- print("")
- end = time.time()
- print("Total time: {:.1f}".format(end-start))
- # 保存结果图片
- file_name = 'newart1.png'
- mpl.image.imsave(file_name, image[0])
再次执行, 所得到的输出图片如下:
效果不错吧? 可以换上自己的照片还有自己心仪的艺术作品来试试.
程序中限制了图片宽, 高最大值是 512, 如果设备性能比较好, 或者有更大尺寸的需求, 可以修改程序中的常量.
(待续...)
来源: https://www.cnblogs.com/andrewwang/p/10836929.html