[UNK] 처리 관련 부분 - U[-a,a] 식이 무엇인지
모델을 비교적 간단하게 짰는데 그 이유가 무엇인지
→ 가장 간단한 모델을 통해서 가장 효과적인 결과를 냈다.
의외로 pretrain - finetuning 부분이 눈에 띄게 더 좋은 게 아니고 비슷했던 점
모델 구조를 맞추기 위해(문장의 단어가 적고 많음에 따라 달라지는 길이) Max-pooling을 사용했다는 점 이를 변경하면 좀 더 나은 모델을 쓸 수 있지 않을까
Word2Vec에서 나오지 않은 단어에 대한 처리 → random 처리 부분
Multi-channel 시 non-static/static 구분해서 훈련하기 → gradient 구분을 어떻게 해야할지..?