Lec 12  Recurrent Neural Network


1. Concept of RNN

   1) Basic Concept

       


        - 현재의 상태값을 계산하는데, 이전의 상태값이 사용됨           

        - 단, 모든 타입 스텝에 대해ㅏ여 동일 함수, 동일 파라미터가 적용됨 

   2) Vanilla RNN 

       


   3) Character-level Language Model 

      - output layer값으로 solftMax를 구하여 정확도를 구하고, 정확도의 평균을 

        Cost 함수로 하여 최소화하는 학습을 진행할 수 있음 


     

 2. RNN applications

  1) application field  

      • Language Modeling 
      • Speech Recognition
      • Machine Translation
      • Conversation Modeling / Question Answering (Chat Bot) 
      • Image / Video Captioning 
      • Image / Music / Dance Generation

        참고 : https://github.com/TensorFlowKR/awesome_tensorflow_implementations


  2) application type 

    - one to one : Vanilla Neural Networks

    - one to many : Image Captioning  

    - many to one : Sentiment Classification 

    - many to many : Machine Translation 

    - many to many : Video Classification on frame level

 

  3) multi-Layer RNN


  4) RNN Training Model 

     - Long Short Term Memory (LSTM) 

     - GRU by Cho. et al. 2014




Lab 12  RNN in TF

1. Concept of RNN in TF 

   1) Cell : 상황에 따라서 결정 (hiden_size는 자유롭게 설정 가능)

   2) 결과 : outputs과, states 두 개가 나오지만, states는 거의 사용하지 않음



2. Input / Output RNN in TF  

   1) One Node: 4 input in 2 hidden_size 

  2) Unfolding to n sequence



  3) Batching Input / Output



3. ....


Posted by 꿈을펼쳐라
,

Lec 11  ConvNet의 Conv 레이어 만들기

1.  Concept of Convolution


 고양이 뇌 실험을 통해 스크린의 변화를 인지하는 데 사용하는 뇌의 기능은 뇌 전체가 아닌 일부 뇌만을 사용함.

 신경망을 사용할때 전체를 다 파악하는 것이 아닌 부분을 판단하는 방식을 적요하는 방법 




2.  Size of filter



3.  Convolution Layers

4. Pooling Layer

 

convolution Layer와 Pooling Layer와의 차이는 Convolution Layer의 weight는 학습을 통해서 결정되지만 Pooling Layer는 정해진 방식에 따라 적용됨.  ( 학습하는 것이 아닌, 대표값 정하는 방식으로)



5. Case Study


LeCun et. al

2012년 ImageNet 경진 대회 우승   

현재는 Normalization Layer는 사용하지 않음


2014년 ImageNet 경진 대회 우승


2015년 다수의 경진 대회 우승


Revolution of Depth

  - fast forward 기법 적용 :  계산값을 2-3 단계 이후 결과값이 Jump하여 적용 



2016, 2017  이미지넷 우승은?


2016

2.99%의 Trimps-Soushen 팀. (The Third Research Institute of the Ministry of Public Security, 중국 공안부 산하 연구팀). ResNet, Inception, Inception-Resnet를 혼합하여 적용 


2017

사물 종류별 검출 성능 :  남경정보과학기술대(NUIST, 중국 ) 

평균 검출 정확도 : 남경정보과학기술대(NUIST, 중국) , 0.61  




2017년 경진대회를 끝으로 이미지넷 경진 대회는 더 진행하지 않는다고 함.




Lab 11  CNN 

1. CNN Process ( 3 step)


2. CNN with Tensorflow

  1) conv2d 

  2) conv2


  3) MNIST Data Load

  4) apply Conv Layer


  5) apply Max Pooling



이후 MNIST 데이터에 대한 convolution layer 적용은 

https://docs.google.com/presentation/d/1h90rpyWiVlwkuCtMgTLfAVKIiqJrFunnKR7dqPNtI6I/edit#slide=id.g1dc2d142ea_0_399 

에서 확인



Posted by 꿈을펼쳐라
,