1. PPT 한 장 분량으로 자유롭게 논문 정리 뒤 이미지로 첨부

  1. 이해가 안 가는 부분, 이해가 안 가는 이유

[UNK] 처리 관련 부분 - U[-a,a] 식이 무엇인지

모델을 비교적 간단하게 짰는데 그 이유가 무엇인지

→ 가장 간단한 모델을 통해서 가장 효과적인 결과를 냈다.

  1. 재밌었던 부분

의외로 pretrain - finetuning 부분이 눈에 띄게 더 좋은 게 아니고 비슷했던 점

  1. 한계로 느껴지는 부분

모델 구조를 맞추기 위해(문장의 단어가 적고 많음에 따라 달라지는 길이) Max-pooling을 사용했다는 점 이를 변경하면 좀 더 나은 모델을 쓸 수 있지 않을까

  1. 논문 구현 시 주의해야할 것 같은 부분

Word2Vec에서 나오지 않은 단어에 대한 처리 → random 처리 부분

Multi-channel 시 non-static/static 구분해서 훈련하기 → gradient 구분을 어떻게 해야할지..?

  1. 같이 얘기해봤으면 하는 부분