[Paper Explain] Learning Temporally Invariant and Localizable Features via Data Augmentation for Video Recognition – Bàn luận 1 chút về video augmentation.

Tiếp tục series Paper Explain đang dang dở về topic Action Recognition, trong bài viết này, mình muốn bàn một chút về data: Data Augmentation. Chắc mọi người cũng đã biết rồi, bên cạnh một model tốt, thứ ảnh hưởng trực tiếp đến kết quả đầu ra, đó là chất lượng của dữ liệu. Việc

Tiếp tục series Paper Explain đang dang dở về topic Action Recognition, trong bài viết này, mình muốn bàn một chút về data: Data Augmentation.

Chắc mọi người cũng đã biết rồi, bên cạnh một model tốt, thứ ảnh hưởng trực tiếp đến kết quả đầu ra, đó là chất lượng của dữ liệu. Việc xây dựng được một bộ dữ liệu sạch, số lượng lớn, tính tổng quát cao đôi khi improve còn tốt hơn việc sử dụng những model hầm hố trên những bộ dữ liệu kém. Với những bộ dữ liệu nhỏ, data augmentation chính là keyword cần phải quan tâm.

Nếu như các bài toán image classification hay object detection vốn đã được sử dụng rất nhiều phương pháp augment khác nhau, action recognition lại rất ít nghiên cứu bàn về vấn đề này. Paper mình muốn phân tích hôm nay là một số ít hiếm hoi đề cập đến việc augment cho video, đặc biệt là về temporal augmentation (mặc dù hơi outdate – từ 2020).

Note: Bài này sẽ nhiều code và hình minh họa thay vì nhiều lí thuyết + công thức như bài phân tích trước.

imgur

1. Tổng quan

Đầu tiên, để lại thông tin liên quan trước:

Để mọi người dễ theo dõi, mình sẽ tóm tắt lại một lượt về các kĩ thuật augmentation thường được sử dụng trong các bài toán Computer Vison thông thường.

  • In-network Augmentation: Đây là các kĩ thuật tập trung vào thiết kế các kiến trúc mạng, để áp dụng augmentation ở mức feature trong quá trình training. Việc này làm giảm predictive variance, đồng thời giúp mô hình học được những high-level augmented thay vì những low-level augmentation. Những kĩ thuật này còn được biết đến là kĩ thuật regularization.

    • Dropout
    • DropBlock
    • DropBlock
    • Shake-Shake
    • ShakeDrop
    • Random Mean Scaling
  • Data-level Augmentation: Đây là các kĩ thuật tập trung vào việc biến đối data đầu vào (ở đây là image), làm tăng độ đa dạng và tổng quát của dữ liệu, từ đó giúp mô hình tập trung vào các feature bất biến trong dữ liệu (invariant features). Ta có thể tiếp tục chia nhỏ các phương pháp này tiếp thành 3 nhóm nhỏ hơn:

    • Geometric Transformation: cropping, flipping, rotating, shearing, translating, …
    • Photometric Transformation: brightness, contrast, color, …
    • Localizable features Augmentation: (thường áp dụng các task liên quan đến localization của đối tượng, ví dụ như object detection): CutOut, Hide-and-Seek, …

    Ngoài ra, những phương pháp kết hợp nhiều kĩ thuật augment khác nhau, với một hệ số ngẫu nhiên cũng đem lại những cải thiện đáng kể: RandAugment, AugMix, …

  • Data-level Mixing: Cùng với augmentation trên 1 sample, các chiến lược augment sử dụng nhiều sample hơn cũng được nghiên cứu và áp dụng, phổ biến nhất là trên các tác vụ object detection.

    • MixUp: tiến hành blend 2 hình ảnh bất kì để tạo ra 1 ảnh mới, với label mới được nội suy từ label của 2 ảnh
    • CutMix: Kết hợp ý tưởng của CutOut và MixUp, tiến hành thay thế vùng bị xóa trong hình ảnh của CutOut bằng 1 bản vá từ hình ảnh khác.
    • CutBlur: Lấy cảm hứng từ CutMix, tiến hành cut-and-paste giữa ảnh có độ phân giải thấp và ảnh có độ phân giải cao.
    • CutMixUp: Kết hợp từ CutMix và MixUp
    • Attribute Mix
    • Attentive CutMix
    • Smoothmix

Mặc dù nhiều phương pháp augment dữ liệu, bao gồm deleting, blending, cut-and-pasting, … đã tăng cường thành công nhiều tập dữ liệu hình ảnh, việc áp dụng những phương pháp này cho action recognition chưa thật sự hiệu quả. Nhóm tác giả paper nhận định, để áp dụng tốt trên video, các phương pháp augment cần có khả năng mô hình hóa được temporally invarianttemporal localizable features.

Từ đây, paper đề xuất các phiên bản cải tiến của những phương pháp augment hiện tại, tập trung hơn vào yếu tố thời gian, cái mà chúng ta sẽ bàn sâu hơn trong phần sau của bài viết.

2. Temporal Data Augmentations

Đề xuất đầu tiên của paper là RandAugment-T (một phiên bản cải tiến của RandAugment)

Khi áp dụng vào video, RandAugment thường áp dụng các augment giống nhau cho mọi khung hình của video, tuy nhiên, điều này hạn chế khả năng mô hình hóa temporal perturbation. RandAugment-T, cải tiến hơn, tiến hành nội suy tuyến tính giữa mức độ augment từ khung hình đầu tiên đến khung hình cuối cùng, từ đó tạo sự biến đổi trong suốt video.

Dưới đây là mã giả của RandAugment-T

defrandaugment_T(X, N, M1, M2):"""Generate a set of distortions.
    Args:
    X: Input video (T x H x W)
    N: Number of augmentation transformations
    to apply sequentially.
    M1, M2: Magnitudes for both temporal ends.
    """
    ops = np.random.choice(transforms, N)
    M = np.linspace(M1, M2, T)return[[op(X, M[t])for t inrange(T)]for op in ops]

Trong đó, transform ở đây bao gồm 1 list các data-level augmentation bao gồm cả Geometric Transformation và Photometric Transformation. Để dễ hình dung nhất, mình sẽ implement lại code + có visualization cụ thể cho từng phương pháp.

# Đầu tiên, import những thư viện cần thiếtimport cv2
import copy
import random
import numpy as np
from PIL import Image, ImageOps, ImageEnhance

Chúng ta sẽ bắt đầu với 1 video sample trong tập dataset của BKAI-NAVER Challenge làm ví dụ.

deftemporal_interpolate(v_list, t, n):iflen(v_list)==1:return v_list[0]eliflen(v_list)==2:return v_list[0]+(v_list[1]- v_list[0])* t / n
    else:
        NotImplementedError('Invalid degree')
  • Geometric Transformation
    • Shear X

      defshear_x(imgs, v_list=[-0.3,0.3]):for v in v_list:assert-0.3<= v <=0.3if random.random()>0.5:
              v_list =[-v for v in v_list]
      
          out =[img.transform(img.size, Image.AFFINE,(1, temporal_interpolate(v_list, t,len(imgs)-1),0,0,1,0))for t, img inenumerate(imgs)]return out
      

    • Shear Y

      defshear_y(imgs, v_list=[-0.3,0.3]):for v in v_list:assert-0.3<= v <=0.3if random.random()>0.5:
              v_list =[-v for v in v_list]
      
          out =[img.transform(img.size, Image.AFFINE,(1,0,0, temporal_interpolate(v_list, t,len(imgs)-1),1,0))for t, img inenumerate(imgs)]return out
      

    • Translate X

      deftranslate_x(imgs, v_list=[-80,80]):# [-150, 150] => percentage: [-0.45, 0.45]for v in v_list:assert-150<= v <=150if random.random()>0.5:
              v_list =[-v for v in v_list]
      
          out =[img.transform(img.size, Image.AFFINE,(1,0, temporal_interpolate(v_list, t,len(imgs)-1),0,1,0))for t, img inenumerate(imgs)]return out
      

    • Translate Y

      deftranslate_y(imgs, v_list=[-50,50]):# [-150, 150] => percentage: [-0.45, 0.45]for v in v_list:assert-150<= v <=150if random.random()>0.5:
                  v_list =[-v for v in v_list]
      
              out =[img.transform(img.size, Image.AFFINE,(1,0,0,0,1, temporal_interpolate(v_list, t,len(imgs)-1)))for t, img inenumerate(imgs)]return out
      

    • Rotate

defrotate(imgs, v_list=[-30,30]):# [-30, 30]for v in v_list:assert-30<= v <=30if random.random()>0.5:
        v_list =[-v for v in v_list]

    out =[img.rotate(temporal_interpolate(v_list, t,len(imgs)-1))for t, img inenumerate(imgs)]return out

  • Photometric Transformation
    • Solarize

      defsolarize(imgs, v_list=[128,256]):# [0, 256]for v in v_list:assert0<= v <=256
      
          out =[ImageOps.solarize(img, temporal_interpolate(v_list, t,len(imgs)-1))for t, img inenumerate(imgs)]return out
      

    • Color

      defcolor(imgs, v_list=[0.1,1.9]):# [0.1,1.9]for v in v_list:assert0.1<= v <=1.9
      
          out =[ImageEnhance.Color(img).enhance(temporal_interpolate(v_list, t,len(imgs)-1))for t, img inenumerate(imgs)]return out
      

    • Posterize

      defposterize(imgs, v_list=[4,8]):# [4, 8]
          v_list =[max(1,int(v))for v in v_list]
      
          out =[ImageOps.posterize(img,int(temporal_interpolate(v_list, t,len(imgs)-1)))for t, img inenumerate(imgs)]return out
      

    • Contrast

      defcontrast(imgs, v_list=[0.1,1.9]):# [0.1,1.9]for v in v_list:assert0.1<= v <=1.9
      
          out =[ImageEnhance.Contrast(img).enhance(temporal_interpolate(v_list, t,len(imgs)-1))for t, img inenumerate(imgs)]return out
      

    • Brightness

      defbrightness(imgs, v_list=[0.1,1.9]):# [0.1,1.9]for v in v_list:assert0.1<= v <=1.9
      
          out =[ImageEnhance.Brightness(img).enhance(temporal_interpolate(v_list, t,len(imgs)-1))for t, img inenumerate(imgs)]return out
      

    • Sharpness

      defsharpness(imgs, v_list=[0.1,1.9]):# [0.1,1.9]for v in v_list:assert0.1<= v <=1.9
      
          out =[ImageEnhance.Sharpness(img).enhance(temporal_interpolate(v_list, t,len(imgs)-1))for t, img inenumerate(imgs)]return out
      

3. Temporal Deleting, Blending, Cut-and-Pasting

Paper cũng đồng thời đề xuất các biến thể của data-level Mixing, tập trung vào temporal localizable features, chủ yếu liên quan đến việc transform giữa các frame.

Do data-level Mixing tiến hành augment dựa trên nhiều sample, ở đây, mình sẽ dùng thêm 1 video nữa để lấy ví dụ minh họa:

defrand_bbox(imgs, lam,type):
    T =len(imgs)
    H, W = imgs[0].size

    iftypein['cutmix','cutmixup']:
        cut_rat = np.sqrt(1.- lam)
        cut_w = np.int32(W * cut_rat)
        cut_h = np.int32(H * cut_rat)

        cx = np.random.randint(W)
        cy = np.random.randint(H)

        bbt1 =0
        bbx1 = np.clip(cx - cut_w //2,0, W)
        bby1 = np.clip(cy - cut_h //2,0, H)
        bbt2 = T
        bbx2 = np.clip(cx + cut_w //2,0, W)
        bby2 = np.clip(cy + cut_h //2,0, H)eliftypein['framemix','framemixup']:
        cut_rat =1.- lam
        cut_t = np.int32(T * cut_rat)

        ct = np.random.randint(T)

        bbt1 = np.clip(ct - cut_t //2,0, T)
        bbx1 =0
        bby1 =0
        bbt2 = np.clip(ct + cut_t //2,0, T)
        bbx2 = W
        bby2 = H
    else:# spatio-temporal, cubemix
        cut_rat = np.power(1.- lam,1./3.)
        cut_t = np.int32(T * cut_rat)
        cut_w = np.int32(W * cut_rat)
        cut_h = np.int32(H * cut_rat)

        ct = np.random.randint(T)
        cx = np.random.randint(W)
        cy = np.random.randint(H)

        bbt1 = np.clip(ct - cut_t //2,0, T)
        bbx1 = np.clip(cx - cut_w //2,0, W)
        bby1 = np.clip(cy - cut_h //2,0, H)
        bbt2 = np.clip(ct + cut_t //2,0, T)
        bbx2 = np.clip(cx + cut_w //2,0, W)
        bby2 = np.clip(cy + cut_h //2,0, H)return bbt1, bbx1, bby1, bbt2, bbx2, bby2

(Ở đây do code CutOut và CutMix là tương tự nhau, nên chúng ta sẽ bỏ qua các phần liên quan đến CutOut)

  • CutMix

    defcut_mix(imgs, replace_imgs, beta=1.0):
        new_imgs = copy.deepcopy(imgs)
        lam = np.random.beta(beta, beta)
        bbt1, bbx1, bby1, bbt2, bbx2, bby2 = rand_bbox(imgs, lam,type='cutmix')for t inrange(bbt1, bbt2):
            img = np.array(imgs[t])
            replace_img = np.array(replace_imgs[t])
            img[bby1:bby2, bbx1:bbx2,:]= replace_img[bby1:bby2, bbx1:bbx2,:]
            new_imgs[t]= Image.fromarray(img)return new_imgs
    

  • FrameMix

    defframe_mix(imgs, replace_imgs, beta=1.0):
        new_imgs = copy.deepcopy(imgs)
        lam = np.random.beta(beta, beta)
        bbt1, bbx1, bby1, bbt2, bbx2, bby2 = rand_bbox(imgs, lam,type='framemix')for t inrange(bbt1, bbt2):
            img = np.array(imgs[t])
            replace_img = np.array(replace_imgs[t])
            img[bby1:bby2, bbx1:bbx2,:]= replace_img[bby1:bby2, bbx1:bbx2,:]
            new_imgs[t]= Image.fromarray(img)return new_imgs
    

  • CubeMix

    defcube_mix(imgs, replace_imgs, beta=1.0):
        new_imgs = copy.deepcopy(imgs)
        lam = np.random.beta(beta, beta)
        bbt1, bbx1, bby1, bbt2, bbx2, bby2 = rand_bbox(imgs, lam,type='cubemix')for t inrange(bbt1, bbt2):
            img = np.array(imgs[t])
            replace_img = np.array(replace_imgs[t])
            img[bby1:bby2, bbx1:bbx2,:]= replace_img[bby1:bby2, bbx1:bbx2,:]
            new_imgs[t]= Image.fromarray(img)return new_imgs
    

  • MixUp

    defmixup(imgs, replace_imgs, beta=1.0):
        new_imgs = copy.deepcopy(imgs)
        lam = np.random.beta(beta, beta)for t inrange(len(imgs)):
            img = np.array(imgs[t])
            replace_img = np.array(replace_imgs[t])
            new_img = img * lam + replace_img *(1.- lam)
            new_imgs[t]= Image.fromarray(new_img.astype(np.uint8))return new_imgs
    

  • FrameMixUp

    defframe_mixup(imgs, replace_imgs, beta=1.0):
        new_imgs = copy.deepcopy(imgs)# Sample Mixing Coordinates
        lam = np.random.beta(beta, beta)
        bbt1, bbx1, bby1, bbt2, bbx2, bby2 = rand_bbox(imgs, lam,type='framemixup')# adjust lambda to exactly match pixel ratio
        T =len(imgs)
        H, W = imgs[0].size
        lam =1-((bbt2 - bbt1)*(bbx2 - bbx1)*(bby2 - bby1)/(T * H * W))
        lamt = np.random.beta(2.0,2.0)for t inrange(len(imgs)):
            img = np.array(imgs[t])
            replace_img = np.array(replace_imgs[t])
            new_img = img * lamt + replace_img *(1.- lamt)
            fr = np.random.rand(1)if fr <0.5:# Basic MixUp, 0.5 Prob FrameMixUpif lamt >=0.5:if bbt1 <= t < bbt2:
                        new_img[bby1:bby2, bbx1:bbx2,:]= replace_img[bby1:bby2, bbx1:bbx2,:]
                    lam = lamt * lam
                else:if bbt1 <= t < bbt2:
                        new_img[bby1:bby2, bbx1:bbx2,:]= img[bby1:bby2, bbx1:bbx2,:]
                    lam = lamt * lam +(1- lam)
            new_imgs[t]= Image.fromarray(new_img.astype(np.uint8))return new_imgs
    

  • CubeMixUp

    defcube_mixup(imgs, replace_imgs, beta=1.0):
        new_imgs = copy.deepcopy(imgs)# Sample Mixing Coordinates
        lam = np.random.beta(beta, beta)
        bbt1, bbx1, bby1, bbt2, bbx2, bby2 = rand_bbox(imgs, lam,type='cubemixup')# adjust lambda to exactly match pixel ratio
        T =len(imgs)
        H, W = imgs[0].size
        lam =1-((bbt2 - bbt1)*(bbx2 - bbx1)*(bby2 - bby1)/(T * H * W))
        lamt = np.random.beta(2.0,2.0)for t inrange(len(imgs)):
            img = np.array(imgs[t])
            replace_img = np.array(replace_imgs[t])
            new_img = img * lamt + replace_img *(1.- lamt)
            fr = np.random.rand(1)if fr <0.5:# Basic MixUp, 0.5 Prob FrameMixUpif lamt >=0.5:if bbt1 <= t < bbt2:
                        new_img[bby1:bby2, bbx1:bbx2,:]= replace_img[bby1:bby2, bbx1:bbx2,:]
                    lam = lamt * lam
                else:if bbt1 <= t < bbt2:
                        new_img[bby1:bby2, bbx1:bbx2,:]= img[bby1:bby2, bbx1:bbx2,:]
                    lam = lamt * lam +(1- lam)
            new_imgs[t]= Image.fromarray(new_img.astype(np.uint8))return new_imgs
    

  • CutMixUp

    defcut_mixup(imgs, replace_imgs, beta=1.0):
        new_imgs = copy.deepcopy(imgs)# Sample Mixing Coordinates
        lam = np.random.beta(beta, beta)
        bbt1, bbx1, bby1, bbt2, bbx2, bby2 = rand_bbox(imgs, lam,type='cutmixup')# adjust lambda to exactly match pixel ratio
        T =len(imgs)
        H, W = imgs[0].size
        lam =1-((bbt2 - bbt1)*(bbx2 - bbx1)*(bby2 - bby1)/(T * H * W))
        lamt = np.random.beta(2.0,2.0)for t inrange(len(imgs)):
            img = np.array(imgs[t])
            replace_img = np.array(replace_imgs[t])
            new_img = img * lamt + replace_img *(1.- lamt)
            fr = np.random.rand(1)if fr <0.5:# Basic MixUp, 0.5 Prob FrameMixUpif lamt >=0.5:if bbt1 <= t < bbt2:
                        new_img[bby1:bby2, bbx1:bbx2,:]= replace_img[bby1:bby2, bbx1:bbx2,:]
                    lam = lamt * lam
                else:if bbt1 <= t < bbt2:
                        new_img[bby1:bby2, bbx1:bbx2,:]= img[bby1:bby2, bbx1:bbx2,:]
                    lam = lamt * lam +(1- lam)
            new_imgs[t]= Image.fromarray(new_img.astype(np.uint8))return new_imgs
    

  • FadeMixUp

deffade_mixup(imgs, replace_imgs, beta=1.0):
    new_imgs = copy.deepcopy(imgs)
    lam = np.random.beta(beta, beta)
    adj = np.random.choice([-1,1])* np.random.uniform(0,min(lam,1.0- lam))
    fade = np.linspace(lam - adj, lam + adj, num=len(imgs))for t inrange(len(imgs)):
        img = np.array(imgs[t])
        replace_img = np.array(replace_imgs[t])
        new_img = img * fade[t]+ replace_img *(1.- fade[t])
        new_imgs[t]= Image.fromarray(new_img.astype(np.uint8))return new_imgs

4. Kết luận

Cá nhân mình thì mình thấy bài viết này không mang đúng tính chất của “Explain Paper” lắm 😄 Cơ mà không sao, với dữ liệu, cách mô tả dễ hiểu nhất là visualize, đặc biệt trong trường hợp của paper này – giới thiệu các phương pháp augment data. Hi vọng cách tiếp cận này sẽ giúp các bạn có hứng thú hơn với nội dung paper (vì thật sự ý tưởng của paper cũng khá đơn giản).

Nếu thấy hay, đừng quên upvote + share bài viết để tiếp thêm động lực cho mình. Chúc mọi người một ngày làm việc và học tập hiệu quả. Seeya 👋

Nguồn: viblo.asia

Bài viết liên quan

Thay đổi Package Name của Android Studio dể dàng với plugin APR

Nếu bạn đang gặp khó khăn hoặc bế tắc trong việc thay đổi package name trong And

Lỗi không Update Meta_Value Khi thay thế hình ảnh cũ bằng hình ảnh mới trong WordPress

Mã dưới đây hoạt động tốt có 1 lỗi không update được postmeta ” meta_key=

Bài 1 – React Native DevOps các khái niệm và các cài đặt căn bản

Hướng dẫn setup jenkins agent để bắt đầu build mobile bằng jenkins cho devloper an t

Chuyển đổi từ monolith sang microservices qua ví dụ

1. Why microservices? Microservices là kiến trúc hệ thống phần mềm hướng dịch vụ,