1. paper review

2. 이해가 안가는 부분

Chap4.1 Multichannel vs. Single Channel Models

The results, however, are mixed, and further work on regularizing the fine-tuning process is warranted. For instance, instead of using an additional channel for the non-static portion, one could maintain a single channel but employ extra dimensions that are allowed to be modified during training.

→ multi-channel vs single channel 여부보다는 dropout의 튜닝 부분이 성능 향상에 더 유의했다 의미가 맞는지?

→ static, non-static 다 사용하는 multi-channel 보다는 single channel인데 디멘션을 더 크게 해서 모델링 하는게 더 성능 향상에 유의했다는 의미 맞는지?

이해가 안가는 이유는 영어 실력의 한계...

3. 재미있었던 부분

프리트레이닝 짱이다. 적은 input 대비 준수한 성능 획득

4. 한계로 느껴지는 부분

다양한 프리트레이닝 임베딩에 대한 실험

실험 결과는 보면 사실 pretraining word2vec 임베딩 안쓴 실험과 쓴 실험 간의 성능 효과 차이가 큼. 즉 CNN 자체 모델링 효과가 큰 것인지는 잘 모르겠다.

5. 논문 구현 주의해야할 부분

Shape 맞추기