일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- sentence embedding
- Self-loop attention
- Classificaion
- NLP
- deep learning
- elif
- neural net
- GNN
- XOR
- Set Transformer
- pytorch
- word2vec
- sigmoid
- python practice
- abstraction
- machine learning
- Transformer
- Python
- Attention
- overfitting
- Today
- Total
Research Notes
[DL] Sent2Vec (Sentence2Vec) 본문
1. Sent2Vec
Sent2vec은 문장 하나를 하나의 vector로 embedding하는 방법. Word2Vec 모델을 기반으로 만들어짐
2. Sent2Vec의 특징
2.1 Subsampling 비활성화
문장의 모든 n-gram을 조합하여 학습할 수 있도록, window size를 문장 전체로 고정하며, 중요한 n-gram 쌍 생성을 방해하지 않도록 subsampling을 사용하지 않음
2.2. Dynamic context window 비활성화
Sent2vec은 문장 전체의 의미를 살리기 위해, 문장의 모든 n-gram을 조합하여 학습함. Sent2Vec의 Context window 크기는 문장의 전체 길이로 고정함 (* n-gram: bi-gram의 최대거리 )
2.3 단어 n-gram
Sent2Vec에서는 단어 단위의 n-gram을 적용함. 여기에서 n-grma은 bi-gram의 최대 거리를 뜻함. 예를 들어, 문장이 (A,B,C,D,E)가 있다고 할 때, 단어 n-gram 3: (A), (A,B), (A,C) / 단어 n-gram 4: (A), (A,B), (A,C), (A,D) , 이런 조합이 만들어짐. 이 조합을 Context로 하여 학습하고, n-gram의 확장은 뒤로 하되 이전 단어는 포함하지 않음. Sent2Vec에서는 마찬가지로 Target vector를 갖도록 학습을 진행함
* Sent2vec의 base인 Word2vec 설명
https://jiachoi.tistory.com/19
[DL] Word2vec
1. Background of Word Embedding 모든 word embedding 관련 학습은 '비슷한 분포를 가진 단어는 비슷한 의미를 가진다'는 가정에 입각하여 이루어진다. (=Distributional Hyphothesis) 비슷한 분포를 가졌다는 것..
jiachoi.tistory.com
'Study > Deep Learning' 카테고리의 다른 글
[DL] Basic Concept of Deep Learning (0) | 2023.07.03 |
---|---|
[DL] Skip-Thought Vectors (0) | 2022.09.21 |
[DL] Word2vec (0) | 2022.09.21 |
[DL] Graph Neural Networks (0) | 2022.04.02 |
[DL] Attention (0) | 2022.04.02 |