Mô hình GANILLA cho bài toán Unpaired Image to Image Translation

Introduction Image to Image translation là quá trình tạo ra phiên bản mới của một bức ảnh với một đặc trưng cụ thể. Ví dụ như chuyển từ ảnh grayscale sang ảnh màu, ảnh mặt người thật sang ảnh anime, tăng độ phân giải của ảnh Để huấn luyện mô hình cho bài toán image

Introduction

Image to Image translation là quá trình tạo ra phiên bản mới của một bức ảnh với một đặc trưng cụ thể. Ví dụ như chuyển từ ảnh grayscale sang ảnh màu, ảnh mặt người thật sang ảnh anime, tăng độ phân giải của ảnh

Để huấn luyện mô hình cho bài toán image to image translation theo hướng supervised learning, ta sẽ cần một lượng lớn các cặp ảnh input và label. Ví dụ như: ảnh màu và ảnh grayscale tương ứng với nó, ảnh mờ và ảnh đã được làm nét. Các ví dụ dữ liệu ở trên có thể được tạo ra khá dễ dàng bằng các phương pháp xử lý ảnh. Tuy nhiên, cũng có vô số trường hợp mà việc tạo ra cặp dataset như vật là gần như không thể:

  • Style transfer ảnh từ mùa hè sang mùa đông (kiếm được ảnh phong cảnh trong các điều kiện khác nhau)
  • Chuyển ảnh chụp sang phong cách của Van Gogh (tạch rồi sao gọi ông ấy về vẽ được nữa :v)
  • Face filter mặt người sang anime
  • Biến ngựa thường thành ngựa vằn (khó mà kiếm được ảnh của 1 con ngựa thường và ảnh của nó nhưng là ngựa vằn 😄).

Do các bộ dataset theo cặp gần như là không tồn tại hoặc khó để đánh nhãn nên các nhà nghiên cứu mới hướng tới giải quyết bài toán image to image translation theo hướng unsupervised với dữ liệu unpaired. Cụ thể hơn là ta có thể sử dụng bất kỳ hai tập ảnh không liên quan và các đặc trưng chung được trích xuất từ mỗi bộ sưu tập và sử dụng trong quá trình image translation. Đây được gọi là bài toán unpaired image-to-image translation.

Hiện nay, các cách tiếp cận tốt nhất cho bài toán image to image translation đều Generative Adversarial Network (GAN). Tiên phong cho bài toán unpaired image to image translation có thể kể đến mô hình: CycleGAN và DualGAN hay gần đây hơn là một cải tiến của CycleGAN là GANILLA – Generative Adversarial Networks for Image to
Illustration Translation

Generative Advesarial Network

Generative Adversarial Networks, là một họ các mô hình nổi tiếng với việc sử dụng các mô hình con đối nghịch nhau (Adversarial) để sinh ra (Generative) dữ liệu. GAN cấu tạo gồm 2 mạng nơron là Generator và Discriminator. Trong khi Generator sinh ra các dữ liệu giống như thật thì Discriminator cố gắng phân biệt đâu là dữ liệu được sinh ra từ Generator và đâu là dữ liệu thật có.

Một ví dụ nổi tiếng minh họa cho mô hình GAN là cuộc chiến giữa cảnh sátvà tội phạm làm tiền giả. Với dữ liệu có được là tiền thật, Generator giốngnhư tên tội phạm còn Discriminator giống như cảnh sát. Tên tội phạm sẽ cố gắng làm ra tiền giả mà cảnh sát cũng không phân biệt được. Còn cảnh sát sẽ phải phân biệt đâu là tiền thật và đâu là tiền giả. Mục tiêu cuối cùng của tên tội phạm là làm ra tiền mà cảnh sát cũng không phân biệt được đâu là thật và đâu là giả và mang tiền đi tiêu được. Cảnh sát cũng qua nhiều lần thấy tiền giả mà khả năng phân biệt cũng tăng lên. Từ đó, dẫn đến tội phạm sẽ phải nâng cấp khả năng làm tiền giả của mình.

Kiến trúc mô hình GANILLA

Bài báo GANILLA đã giới thiệu một domain mới trong bài toán style transfer: tranh minh họa cho sách trẻ em. So với các domain truyền thống trong các paper về image to image translation, tác giả bài báo cho rằng domain mới này có tính trừu tượng cao hơn

Các mô hình truyền thống như CycleGAN hay DualGAN gặp khó khăn trong việc cân bằng phong cách (style) trừu tượng trong tranh minh họa và nội dung (content) gốc của ảnh được transfer sang.

Để giải quyết vấn đề cân bằng giữa style và content, bài báo đề xuất một số thay đổi với kiến trúc generator của CycleGAN. Cũng giống như CycleGAN, GANILLA bao gồm 2 Generator và 2 Discriminator. Generator đầu tiên gọi là G, nhận đầu vào là ảnh từ domain X (tranh minh họa) và convert nó sang domain Y (ảnh chụp phong cảnh). Generator còn lại gọi là Y, có nhiệm vụ convert ảnh từ domain Y sang X. Mỗi mạng Generator có 1 Discriminator tương ứng với nó

  • DYD_Y: phân biệt ảnh lấy từ domain Y và ảnh được translate G(x).
  • DXD_X: phân biệt ảnh lấy từ domain X và ảnh được translate F(y).

Generator

Kiến trúc generator bao gồm 2 giai đoạn upsampling và downsampling

Phần downsampling là một mạng Resnet18 với một số sửa đổi:

  • Thay thế lớp batch normalization bằng instance normalization
  • Tại cuối mỗi khối residual, thay vì cộng feature map của input và output của khối, ta tiến hành concat.

Cụ thể hơn, phần sample sẽ bắt đầu bằng lớp convolution với filter 7×77 times 7 nối tiếp bởi lớp instance normalization, hàm kích hoạt ReLU và 1 lớp max pooling giảm kích thước feature map xuống 1/2. Tiếp theo, tương tự như kiến trúc resnet18, ta có 4 lớp con I, II, III, IV, mỗi lớp bao gồm 2 khối residual. Mỗi khối residual bao gồm 1 lớp convolution với filter 3×33 times 3, instance normalization, hàm kích hoạt ReLU theo sau bởi 1 lớp convolution và 1 lớp instance normalization nữa. Input của khối residual sẽ được concat với output của nó. Output của quá trình này sau đó được cho qua 1 lớp convolution và ReLU cuối cùng. Kích thước feature map sẽ giảm đi một nửa bằng convolution stride 2 sau mỗi lớp con trừ lớp I

Trong phần upsampling, tác giả sử dụng skip connection giống mô hình Unet, để kết hợp các feature map từ lớp con của phần downsample với các output từ các lớp tích chập của phần upsampling. Ở đây, thay vì sử dụng concat, tác giả sử dụng phép cộng các feature map. Các kết nối tắt này giúp bảo toàn content của ảnh. Đầu tiên, output của lớp con IV từ downsample được cho qua 1 lớp convolution filter 1×11 times 1 và nearest neighbor upsampling để có kích thước bằng feature map của lớp con III. Quá trình này được tiếp tục ở các lớp con tiếp theo. Cuối cùng, ảnh output được tạo ra từ một lớp convolution 7×77 times 7 với 3 filter..

Discriminator

GANILLA vẫn giữ nguyên kiến trúc CNN PatchGAN từ CycleGAN. Mô hình được tạo thành từ 3 khối, mỗi khối bao gồm 2 lớp convolution với kernel 4×44 times 4 theo sau bởi lớp instance normalization và hàm kích hoạt LeakyReLU. Khối đầu tiên sẽ có 64 filter và gấp đôi với mỗi khối ở sau. Output của Discriminator sẽ là một lưới 70×7070 times 70. Mỗi ô sẽ dự đoán xác suất là thật giả của một vùng tương ứng trên ảnh.

Loss function

Phần này cũng tương tự CycleGAN, bao gồm 2 loss thành phần

Adversarial loss

Gồm 2 GAN loss cho 2 cặp Generator và Discriminator

LGAN(G,DY,X,Y)=Ey ∼ pdata(y)[logDY(y)]+Ex ∼ pdata(x)[log(1−DY(G(x))]L_{GAN}(G, D_Y, X, Y) = E_{y sim ~ p_{data}(y)}[ logD_{Y}(y)] + E_{x sim ~ p_{data}(x)}[log(1- D_Y(G(x))]

Ladv(F,DX,Y,X)=Ex ∼ pdata(x)[logDX(x)]+Ey ∼ pdata(y)[log(1−DX(F(y))]L_{adv}(F, D_X, Y, X ) = E_{x sim ~ p_{data}(x)}[ logD_{X}(x)] + E_{y sim ~ p_{data}(y)}[log(1- D_X(F(y))]

Cycle consistency loss

Để đảm bảo khi ta translate ảnh X sang domain Y, sau đó translate ngược lại về X sẽ được ảnh ban đầu
Lcycle(G,F)=1n∑∣∣F(G(xi))−xi∣∣1+∣∣G(F(yi))−yi∣∣1L_{cycle}(G, F) = frac{1}{n}sum||F(G(x_i)) – x_i||_1+||G(F(y_i)) – y_i||_1

Full Loss

L=LGAN(G,DY,X,Y)+Ladv(F,DX,Y,X)+λLcycle(G,F)L =L_{GAN}(G, D_Y, X, Y) +L_{adv}(F, D_X, Y, X ) + lambda L_{cycle}(G, F)

Cài đặt mô hình

Để cài đặt và huấn luyện mô hình, mình sẽ sử dụng pytorch, fastaiUPIT.
Install các thư viện cần thiết

pip install fastai==2.3.0
pip install git+https://github.com/tmabraham/UPIT.git

Generator

from fastai.vision.allimport*from fastai.basics import*from typing import List

# CellclassBasicBlock_Ganilla(nn.Module):
  expansion =1def__init__(self, in_planes, planes, use_dropout, stride=1):super(BasicBlock_Ganilla, self).__init__()
      self.rp1 = nn.ReflectionPad2d(1)
      self.conv1 = nn.Conv2d(in_planes, planes, kernel_size=3, stride=stride, padding=0, bias=False)
      self.bn1 = nn.InstanceNorm2d(planes)
      self.use_dropout = use_dropout
      if use_dropout:
          self.dropout = nn.Dropout(use_dropout)
      self.rp2 = nn.ReflectionPad2d(1)
      self.conv2 = nn.Conv2d(planes, planes, kernel_size=3, stride=1, padding=0, bias=False)
      self.bn2 = nn.InstanceNorm2d(planes)
      self.out_planes = planes

      self.shortcut = nn.Sequential()if stride !=1or in_planes != self.expansion*planes:
          self.shortcut = nn.Sequential(
              nn.Conv2d(in_planes, self.expansion*planes, kernel_size=1, stride=stride, bias=False),
              nn.InstanceNorm2d(self.expansion*planes))

          self.final_conv = nn.Sequential(
              nn.ReflectionPad2d(1),
              nn.Conv2d(self.expansion * planes *2, self.expansion * planes, kernel_size=3, stride=1,
                                      padding=0, bias=False),
              nn.InstanceNorm2d(self.expansion * planes))else:
          self.final_conv = nn.Sequential(
              nn.ReflectionPad2d(1),
              nn.Conv2d(planes*2, planes, kernel_size=3, stride=1, padding=0, bias=False),
              nn.InstanceNorm2d(planes))defforward(self, x):
      out = F.relu(self.bn1(self.conv1(self.rp1(x))))if self.use_dropout:
          out = self.dropout(out)
      out = self.bn2(self.conv2(self.rp2(out)))
      inputt = self.shortcut(x)
      catted = torch.cat((out, inputt),1)
      out = self.final_conv(catted)
      out = F.relu(out)return out

# CellclassPyramidFeatures(nn.Module):def__init__(self, C2_size, C3_size, C4_size, C5_size, fpn_weights, feature_size=128):super(PyramidFeatures, self).__init__()

      self.sum_weights = fpn_weights #[1.0, 0.5, 0.5, 0.5]# upsample C5 to get P5 from the FPN paper
      self.P5_1 = nn.Conv2d(C5_size, feature_size, kernel_size=1, stride=1, padding=0)
      self.P5_upsampled = nn.Upsample(scale_factor=2, mode='nearest')#self.rp1 = nn.ReflectionPad2d(1)#self.P5_2 = nn.Conv2d(feature_size, feature_size, kernel_size=3, stride=1, padding=0)# add P5 elementwise to C4
      self.P4_1 = nn.Conv2d(C4_size, feature_size, kernel_size=1, stride=1, padding=0)
      self.P4_upsampled = nn.Upsample(scale_factor=2, mode='nearest')#self.rp2 = nn.ReflectionPad2d(1)#self.P4_2 = nn.Conv2d(feature_size, feature_size, kernel_size=3, stride=1, padding=0)# add P4 elementwise to C3
      self.P3_1 = nn.Conv2d(C3_size, feature_size, kernel_size=1, stride=1, padding=0)
      self.P3_upsampled = nn.Upsample(scale_factor=2, mode='nearest')#self.rp3 = nn.ReflectionPad2d(1)#self.P3_2 = nn.Conv2d(feature_size, feature_size, kernel_size=3, stride=1, padding=0)

      self.P2_1 = nn.Conv2d(C2_size, feature_size, kernel_size=1, stride=1, padding=0)
      self.P2_upsampled = nn.Upsample(scale_factor=2, mode='nearest')
      self.rp4 = nn.ReflectionPad2d(1)
      self.P2_2 = nn.Conv2d(int(feature_size),int(feature_size/2), kernel_size=3, stride=1, padding=0)#self.P1_1 = nn.Conv2d(feature_size, feature_size, kernel_size=1, stride=1, padding=0)#self.P1_upsampled = nn.Upsample(scale_factor=2, mode='nearest')#self.rp5 = nn.ReflectionPad2d(1)#self.P1_2 = nn.Conv2d(feature_size, feature_size, kernel_size=3, stride=1, padding=0)defforward(self, inputs):

      C2, C3, C4, C5 = inputs

      i =0
      P5_x = self.P5_1(C5)* self.sum_weights[i]
      P5_upsampled_x = self.P5_upsampled(P5_x)#P5_x = self.rp1(P5_x)# #P5_x = self.P5_2(P5_x)
      i +=1
      P4_x = self.P4_1(C4)* self.sum_weights[i]
      P4_x = P5_upsampled_x + P4_x
      P4_upsampled_x = self.P4_upsampled(P4_x)#P4_x = self.rp2(P4_x)# #P4_x = self.P4_2(P4_x)
      i +=1
      P3_x = self.P3_1(C3)* self.sum_weights[i]
      P3_x = P3_x + P4_upsampled_x
      P3_upsampled_x = self.P3_upsampled(P3_x)#P3_x = self.rp3(P3_x)#P3_x = self.P3_2(P3_x)
      i +=1
      P2_x = self.P2_1(C2)* self.sum_weights[i]
      P2_x = P2_x * self.sum_weights[2]+ P3_upsampled_x
      P2_upsampled_x = self.P2_upsampled(P2_x)
      P2_x = self.rp4(P2_upsampled_x)
      P2_x = self.P2_2(P2_x)return P2_x

# CellclassResNet(nn.Module):def__init__(self, input_nc, output_nc, ngf, use_dropout, fpn_weights, block, layers):
      self.inplanes = ngf
      super(ResNet, self).__init__()# first conv
      self.pad1 = nn.ReflectionPad2d(input_nc)
      self.conv1 = nn.Conv2d(input_nc, ngf, kernel_size=7, stride=1, padding=0, bias=True)
      self.in1 = nn.InstanceNorm2d(ngf)
      self.relu = nn.ReLU(inplace=True)
      self.pad2 = nn.ReflectionPad2d(1)
      self.maxpool = nn.MaxPool2d(kernel_size=3, stride=2, padding=0)# Output layer
      self.pad3 = nn.ReflectionPad2d(output_nc)
      self.conv2 = nn.Conv2d(64, output_nc,7)
      self.tanh = nn.Tanh()if block == BasicBlock_Ganilla:# residuals
          self.layer1 = self._make_layer_ganilla(block,64, layers[0], use_dropout, stride=1)
          self.layer2 = self._make_layer_ganilla(block,128, layers[1], use_dropout, stride=2)
          self.layer3 = self._make_layer_ganilla(block,128, layers[2], use_dropout, stride=2)
          self.layer4 = self._make_layer_ganilla(block,256, layers[3], use_dropout, stride=2)

          fpn_sizes =[self.layer1[layers[0]-1].conv2.out_channels,
                       self.layer2[layers[1]-1].conv2.out_channels,
                       self.layer3[layers[2]-1].conv2.out_channels,
                       self.layer4[layers[3]-1].conv2.out_channels]else:print("This block type is not supported")
          sys.exit()

      self.fpn = PyramidFeatures(fpn_sizes[0], fpn_sizes[1], fpn_sizes[2], fpn_sizes[3], fpn_weights)def_make_layer_ganilla(self, block, planes, blocks, use_dropout, stride=1):
      strides =[stride]+[1]*(blocks -1)
      layers =[]for stride in strides:
          layers.append(block(self.inplanes, planes, use_dropout, stride))
          self.inplanes = planes * block.expansion
      return nn.Sequential(*layers)deffreeze_bn(self):'''Freeze BatchNorm layers.'''for layer in self.modules():ifisinstance(layer, nn.BatchNorm2d):
              layer.eval()defforward(self, inputs):

      img_batch = inputs

      x = self.pad1(img_batch)
      x = self.conv1(x)
      x = self.in1(x)
      x = self.relu(x)
      x = self.pad2(x)
      x = self.maxpool(x)

      x1 = self.layer1(x)
      x2 = self.layer2(x1)
      x3 = self.layer3(x2)
      x4 = self.layer4(x3)

      out = self.fpn([x1, x2, x3, x4])# use all resnet layers

      out = self.pad3(out)
      out = self.conv2(out)
      out = self.tanh(out)return out

defganilla_generator(input_nc, output_nc, ngf, drop, fpn_weights=[1.0,1.0,1.0,1.0], init_type='normal', gain=0.02,**kwargs):"""Constructs a ResNet-18 GANILLA generator."""
  model = ResNet(input_nc, output_nc, ngf, drop, fpn_weights, BasicBlock_Ganilla,[2,2,2,2],**kwargs)return model

PatchGAN Discrminator

defconv_norm_lr(ch_in:int, ch_out:int, norm_layer:nn.Module=None, ks:int=3, bias:bool=True, pad:int=1, stride:int=1,
               activ:bool=True, slope:float=0.2, init=nn.init.normal_, init_gain:int=0.02)->List[nn.Module]:
  conv = nn.Conv2d(ch_in, ch_out, kernel_size=ks, padding=pad, stride=stride, bias=bias)if init:if init == nn.init.normal_:
          init(conv.weight,0.0, init_gain)else:
          init(conv.weight)ifhasattr(conv,'bias')andhasattr(conv.bias,'data'): conv.bias.data.fill_(0.)
  layers =[conv]if norm_layer isnotNone: layers.append(norm_layer(ch_out))if activ: layers.append(nn.LeakyReLU(slope, inplace=True))return layers
  
defdiscriminator(ch_in:int, n_ftrs:int=64, n_layers:int=3, norm_layer:nn.Module=None, sigmoid:bool=False)->nn.Module:
  norm_layer = ifnone(norm_layer, nn.InstanceNorm2d)
  bias =(norm_layer == nn.InstanceNorm2d)
  layers = conv_norm_lr(ch_in, n_ftrs, ks=4, stride=2, pad=1)for i inrange(n_layers-1):
      new_ftrs =2*n_ftrs if i <=3else n_ftrs
      layers += conv_norm_lr(n_ftrs, new_ftrs, norm_layer, ks=4, stride=2, pad=1, bias=bias)
      n_ftrs = new_ftrs
  new_ftrs =2*n_ftrs if n_layers <=3else n_ftrs
  layers += conv_norm_lr(n_ftrs, new_ftrs, norm_layer, ks=4, stride=1, pad=1, bias=bias)
  layers.append(nn.Conv2d(new_ftrs,1, kernel_size=4, stride=1, padding=1))if sigmoid: layers.append(nn.Sigmoid())return nn.Sequential(*layers)

Training

Việc huấn luyện mô hình khá đơn giản với sự hỗ trợ của UPIT và fastai. Ở đây mình sẽ sử dụng bộ dataset monet2photo. Cấu trúc thư mục của dataset sẻ như thế này

from fastai.vision.allimport*from upit.data.unpaired import get_dls
from upit.models.ganilla import*from upit.train.cyclegan import cycle_learner
from upit.tracking.wandb import SaveModelAtEndCallback
image_path = Path('monet2photo') 

trainA_path = image_path /'trainA'
trainB_path = image_path /'trainB'

ganilla = GANILLA(3,3,64)
dls = get_dls(trainA_path, trainB_path, load_size=256, crop_size=224, num_workers=4)

learn = cycle_learner(dls,
                     ganilla,
                     opt_func=partial(Adam,mom=0.5,sqr_mom=0.999),
                     cbs=[SaveModelAtEndCallback()],
                     show_imgs=False)
learn.fit(50,50,1e-4)

Kết quả

Extra: Ghibli dataset

Kết quả khi train trên bộ ảnh crop ra từ phim Ghibli (link)

References

Nguồn: viblo.asia

Bài viết liên quan

WebP là gì? Hướng dẫn cách để chuyển hình ảnh jpg, png qua webp

WebP là gì? WebP là một định dạng ảnh hiện đại, được phát triển bởi Google

Điểm khác biệt giữa IPv4 và IPv6 là gì?

IPv4 và IPv6 là hai phiên bản của hệ thống địa chỉ Giao thức Internet (IP). IP l

Check nameservers của tên miền xem website trỏ đúng chưa

Tìm hiểu cách check nameservers của tên miền để xác định tên miền đó đang dùn

Mình đang dùng Google Domains để check tên miền hàng ngày

Từ khi thông báo dịch vụ Google Domains bỏ mác Beta, mình mới để ý và bắt đầ