Abstract

[Challenge]

: BERT와 같은 Pre-trained language representation 모델은 일반적으로 모델의 크기가 커지면 성능이 향상됨. 하지만, 모델이 커짐에 따라 다음의 문제가 발생

[ALBERT의 목표]

: 모델의 경량화 - 모델 크기 증가를 막는 메모리 한계를 극복하기 위해

[Contribution]

  1. Factorized Embedding Parameterization

  2. Cross-Layer Parameter Sharing

  3. Sentence-Order Prediction (SOP)

    → NSP 보다 SQUAD, MNLI, RACE task에서 성능 향상

[Conclusion]

Background

→ 모델의 크기가 커짐에 따라 발생하는 문제는 없을까?

1. Challenge

Language Representation 모델의 크기가 클 때 발생하는 문제점

대표적 문제