n-gram 언어 모델은 카운트에 기반한 통계적 접근을 사용하고 있다.
이전에 등장한 단어 중 일부 단어만 고려하는 접근 방법을 사용하고 있다.
이때 일부 단어를 몇 개 보느냐를 결정하는데 이것이 n-gram에서의 n이 가지는 의미이다.
1. 코퍼스에서 카운트하지 못하는 경우의 감소
SLM의 한계
- 훈련 corpus에 확률을 계산하고 싶은 문장이나 단어가 없을 수 있다.
- 확률을 계산하고 싶은 문장이 길어질수록 갖고 있는 코퍼스에서 그 문장이 존재하지 않을 가능성이 높다.
다음과 같이 참고하는 단어들을 줄이면 카운트 할 수 있는 가능성을 높일 수 있다.
위의 수식처럼 앞 단어 중 임의의 개수만 포함해서 카운트하여 근사할 수 있다.
이렇게 하면 갖고 있는 코퍼스에서 해당 단어의 시퀀스를 카운트할 확률이 높아진다.
2. N-gram
이 때 임의의 개수를 정하기 위한 기준을 위해 사용하는 것이 n-gram이다.
n-gram은 n개의 연속적인 단어 나열을 의미한다.
갖고 있는 코퍼스에서 n개의 단어 뭉치 단위로 끊어서 이를 하나의 토큰으로 간주한다.
예를 들어서 문장 An adorable little boy is spreading smiles이 있을 때, 각 n에 대해서 n-gram을 전부 구해보면 다음과 같다.
unigrams : an, adorable, little, boy, is, spreading, smiles
bigrams : an adorable, adorable little, little boy, boy is, is spreading, spreading smiles
trigrams : an adorable little, adorable little boy, little boy is, boy is spreading, is spreading smiles
4-grams : an adorable little boy, adorable little boy is, little boy is spreading, boy is spreading smiles
n-gram 사용 시
n=1 : 유니그램(unigram)
n=2 : 바이그램(bigram)
n=3 : 트라이그램(trigram)
n=4 : 4-grams
이라고 명명 한다.
n-gram을 통한 언어 모델에서는 다음에 나올 단어의 예측은 오직 n-1개의 단어에만 의존한다.
예를 들어 'An adorable little boy is spreading' 다음에 나올 단어를 예측하고 싶다고 할 때, n=4라고 한 4-gram을 이용한 언어 모델을 사용한다고 하면, spreading 다음에 올 단어를 예측하는 것은 n-1에 해당되는 앞의 3개의 단어만을 고려한다.
만약 갖고있는 코퍼스에서 boy is spreading가 1,000번 등장했다고 하고 boy is spreading insults가 500번 등장했으며, boy is spreading smiles가 200번 등장했다고 한다면, boy is spreading 다음에 insults가 등장할 확률은 50%이며, smiles가 등장할 확률은 20%가 된다.
3. N-gram Language Model의 한계
n-gram은 뒤의 단어 몇 개만 보다 보니 의도하고 싶은 대로 문장을 끝맺음하지 못하는 경우가 생긴다.
문장을 읽다 보면 앞 부분과 뒷부분의 문맥이 전혀 연결 안되는 경우도 생길 수 있따.
결론적으로 보면, 전체 문장을 고려한 언어 모델보다는 정확도가 떨어질 수 밖에 없다.
이를 통한 n-gram모델에 대한 한계점을 정리해 보면,
3-1) 희소 문제(Sparsity Problem)
문장에 존재하는 앞에 나온 단어를 모두 보는 것보다 일부 단어만을 보는 것으로 현실적으로 코퍼스에서 카운트 할 수 있는 확률을 높일 수는 있었지만, n-gram 언어 모델도 여전히 n-gram에 대한 희소 문제가 존재한다.
3-2) n을 선택하는 것은 trade-off 문제
n을 크게 선택하면 실제 훈련 코퍼스에서 해당 n-gram을 카운트할 수 있는 확률은 적어지므로 희소 문제는 점점 심각해진다. 또한 n이 커질수록 모델 사이즈가 커진다는 문제점도 있다. 기본적으로 코퍼스의 모든 n-gram에 대해서 카운트를 해야 하기 때문이다.
n을 작게 선택하면 훈련 코퍼스에서 카운트는 잘 되겠지만 근사의 정확도는 현실의 확률분포와 멀어진다. 그렇기 때문에 적절한 n을 선택해야 한다. 앞서 언급한 trade-off 문제로 인해 정확도를 높이려면 n은 최대 5를 넘게 잡아서는 안 된다고 권장되고 있다.
n이 성능에 영향을 주는 것을 확인할 수 있는 유명한 예제 중 스탠퍼드 대학교의 공유 자료에 따르면, 월스트리트 저널에서 3,800만 개의 단어 토큰에 대하여 n-gram 언어 모델을 학습하고, 1,500만 개의 테스트 데이터에 대해서 테스트를 했을 때 다음과 같은 성능이 나왔다고 한다. 펄플렉서티(perplexity)는 수치가 낮을수록 더 좋은 성능을 나타낸다.
Unigram | Bigram | Trigram | |
Perplexity | 962 | 170 | 109 |
위의 결과는 n을 1에서 2, 2에서 3으로 올릴 때마다 성능이 올라가는 것을 보여준다.
4. 적용 분야(Domain)에 맞는 코퍼스의 수집
어떤 분야인지, 어떤 어플리케이션인지에 따라서 특정 단어들의 확률 분포는 당연히 다르다. 각 분야에따라 등장하는 단어가 다를 것이가 때문이다. 이 경우 언어 모델에 사용하는 코퍼스를 해당 도메인의 코퍼스를 사용한다면 당연히 언어 모델이 제대로 된 언어 생성을 할 가능성이 높아진다.
때로는 이를 언어 모델의 약점이라고 하는 경우도 있는데, 훈련에 사용된 도메인 코퍼스가 무엇이냐에 따라서 성능이 비약적으로 달라지기 때문이다.
5. 인공 신경망을 이용한 언어 모델 (Neural Network Based Language Model)
N-gram Language Model의 한계점을 극복하기위해 분모, 분자에 숫자를 더해서 카운트했을 때 0이 되는 것을 방지하는 등의 여러 일반화(generalization) 방법들이 존재한다. 하지만 그럼에도 본질적으로 n-gram 언어 모델에 대한 취약점을 완전히 해결하지는 못하였고, 이를 위한 대안으로 N-gram Language Model보다 대체적으로 성능이 우수한인공 신경망을 이용한 언어 모델이 많이 사용되고 있다.
정리:
1. 희소문제 해결하기 위해 문장 전체가 아닌 필요한 일부만 사용하는 n-gram을 사용했다.
2. n-gram을 통한 언어 모델에서는 다음에 나올 단어의 예측은 오직 n-1개의 단어에만 의존한다.
3. n-gram은 단어 몇 개만 보다 보니 전체 문장을 고려한 언어 모델보다는 정확도가 떨어질 수 밖에 없다.
4. n을 크게 선택하면 카운트할 수 있는 확률은 적어지므로 희소문제가 심각해지고 작게하면 희소문제가 발생한다.
* 펄플렉서티(perplexity)
'Deep learning > NLP(자연어처리)' 카테고리의 다른 글
펄플렉서티(Perplexity) (0) | 2020.02.27 |
---|---|
한국어에서의 언어 모델(Language Model for Korean Sentences) (0) | 2020.02.27 |
통계적 언어 모델(Statistical Language Model, SLM) (0) | 2020.02.27 |
언어 모델(Language Model) (0) | 2020.02.26 |
자연어 처리(불용어) (0) | 2020.02.26 |