본문 바로가기

Research Notes

검색하기
Research Notes
프로필사진 jiachoi

  • 분류 전체보기 (50)
    • About (1)
      • Who am I? (0)
      • Research experience (0)
      • Jia's daily life (1)
    • Study (18)
      • Machine Learning (6)
      • Deep Learning (11)
      • Cloud (0)
      • Survival Analysis (1)
    • Programming Language (24)
      • Python (19)
      • R (5)
    • Paper Review (6)
Guestbook
Notice
Recent Posts
Recent Comments
Link
«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31
Tags
  • sentence embedding
  • XOR
  • Classificaion
  • elif
  • NLP
  • Attention
  • python practice
  • Self-loop attention
  • deep learning
  • abstraction
  • overfitting
  • neural net
  • machine learning
  • Python
  • sigmoid
  • GNN
  • Transformer
  • word2vec
  • Set Transformer
  • pytorch
more
Archives
Today
Total
관리 메뉴
  • 글쓰기
  • 방명록
  • RSS
  • 관리

목록VALUE (1)

Research Notes

[DL] Attention

1. Key, Query, Value 2. Self-Attention 3. Attention in Transformer 1. Key, Query, Value Key(K), Query(Q), Value(V)는 Attention의 핵심 키워드. Key, Query, Value의 특징은 아래와 같음 Dictionary 자료 구조이므로, Query와 Key가 일치하면 Value를 리턴함 Dictionary 자료형의 결과 리턴 과정 (attention score를 계산하는 과정과 유사) 1) key와 value의 유사도를 계산 2) 유사도와 value를 곱함 3) 유사도와 value를 곱한 값의 합을 리턴 K, Q, V가 Attention에서는 어떻게 사용될까? Attention이란, query와 k..

Study/Deep Learning 2022. 4. 2. 14:34
이전 Prev 1 Next 다음

Blog is powered by kakao / Designed by Tistory

티스토리툴바

개인정보

  • 티스토리 홈
  • 포럼
  • 로그인

단축키

내 블로그

내 블로그 - 관리자 홈 전환
Q
Q
새 글 쓰기
W
W

블로그 게시글

글 수정 (권한 있는 경우)
E
E
댓글 영역으로 이동
C
C

모든 영역

이 페이지의 URL 복사
S
S
맨 위로 이동
T
T
티스토리 홈 이동
H
H
단축키 안내
Shift + /
⇧ + /

* 단축키는 한글/영문 대소문자로 이용 가능하며, 티스토리 기본 도메인에서만 동작합니다.