Research Notes

[DL] Sent2Vec (Sentence2Vec) 본문

Study/Deep Learning

[DL] Sent2Vec (Sentence2Vec)

jiachoi 2022. 9. 21. 19:53

1. Sent2Vec 

Sent2vec은 문장 하나를 하나의 vector로 embedding하는 방법. Word2Vec 모델을 기반으로 만들어짐 

2. Sent2Vec의 특징 

2.1  Subsampling 비활성화 

문장의 모든 n-gram을 조합하여 학습할 수 있도록, window size를 문장 전체로 고정하며, 중요한 n-gram 쌍 생성을 방해하지 않도록 subsampling을 사용하지 않음

2.2. Dynamic context window 비활성화 

Sent2vec은 문장 전체의 의미를 살리기 위해, 문장의 모든 n-gram을 조합하여 학습함. Sent2Vec의 Context window 크기는 문장의 전체 길이로 고정함 (* n-gram: bi-gram의 최대거리 )

2.3 단어 n-gram

Sent2Vec에서는 단어 단위의 n-gram을 적용함. 여기에서 n-grma은 bi-gram의 최대 거리를 뜻함. 예를 들어, 문장이 (A,B,C,D,E)가 있다고 할 때, 단어 n-gram 3: (A), (A,B), (A,C) / 단어 n-gram 4: (A), (A,B), (A,C), (A,D) , 이런 조합이 만들어짐. 이 조합을 Context로 하여 학습하고, n-gram의 확장은 뒤로 하되 이전 단어는 포함하지 않음. Sent2Vec에서는 마찬가지로 Target vector를 갖도록 학습을 진행함 

 

* Sent2vec의 base인 Word2vec 설명

https://jiachoi.tistory.com/19

 

[DL] Word2vec

1. Background of Word Embedding 모든 word embedding 관련 학습은 '비슷한 분포를 가진 단어는 비슷한 의미를 가진다'는 가정에 입각하여 이루어진다. (=Distributional Hyphothesis) 비슷한 분포를 가졌다는 것..

jiachoi.tistory.com

 

'Study > Deep Learning' 카테고리의 다른 글

[DL] Basic Concept of Deep Learning  (0) 2023.07.03
[DL] Skip-Thought Vectors  (0) 2022.09.21
[DL] Word2vec  (0) 2022.09.21
[DL] Graph Neural Networks  (0) 2022.04.02
[DL] Attention  (0) 2022.04.02