- PPT 한 장 분량으로 자유롭게 논문 정리 뒤 이미지로 첨부

- (슬랙으로 이미 토론을 했지만 그래도) 이해가 안 가는 부분, 이해가 안 가는 이유(논문 본문 복붙)
- semi-supervision signals이라는 의미?
- allowing downstream models to mix different types of **semi-**supervision signals.
→ 엘모가 비지도 학습이며, 비지도 학습을 통해 만들어진 것들을 다른 태스크에 적용시켜서 semi-supervision signal을 보내는 것인가... (말이 잘 와닿지 않음..)
- 재밌었던 부분
- highway network
- 유사도에 대한 예시 부분
- biLM의 중간 레이어들에 가중치를 부여해 CNN같은 층별로 어떤 정보들이 있는지 intuitional한 정보를 얻을수 있게 한것.
- 캐릭터 베이스 임베딩
- 성능을 위해 그렇게까지 레이어를 많이 주지 않음.. (L = 2) → deploy할 수 있을까 하는 고민
- 논문 구현 시 주의해야할 것 같은 부분(논문 본문 복붙)
- 엘모 모델 구조
- bi - language model의 pre-trained된 것들은 freezing, 태스크 파라미터만 학습
- 소개하고 싶은 개념 하나 (발표 5분 분량, 선택)