여기서 3번 프로세스는 이전과 동일한데, 1, 2번을 위한 모델을 어떻게 구성하면 좋을까?
여기서 활용가능한게 timedistributed layer이다.
Code Example
tf.keras.layers.TimeDistributed(layer,**kwargs)
보기에는 매우 쉽다.
inputs=tf.keras.Input(shape=(10,128,128,3))# 인풋이 128 x 128 x 3의 이미지가 10개 쌓여있는 모습이다.
conv_2d_layer=tf.keras.layers.Conv2D(64,(3,3))outputs=tf.keras.layers.TimeDistributed(conv_2d_layer)(inputs)
위에처럼 쌓아주면 [128 128 3] 이미지를 분류하는 Conv2D를 10번 거쳐서 벡터를 뽑아준다.
Code Example - VGG16 Pretrained moel
만약 VGG16 사전학습 모델을 application으로 부터 로드해서 활용해주려면 어떻게 하면 좋을꺄?