본문 바로가기

Research Notes

검색하기
Research Notes
프로필사진 jiachoi

  • 분류 전체보기 (50)
    • About (1)
      • Who am I? (0)
      • Research experience (0)
      • Jia's daily life (1)
    • Study (18)
      • Machine Learning (6)
      • Deep Learning (11)
      • Cloud (0)
      • Survival Analysis (1)
    • Programming Language (24)
      • Python (19)
      • R (5)
    • Paper Review (6)
Guestbook
Notice
Recent Posts
Recent Comments
Link
«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31
Tags
  • Python
  • word2vec
  • Attention
  • sentence embedding
  • pytorch
  • Self-loop attention
  • GNN
  • Transformer
  • overfitting
  • python practice
  • Classificaion
  • elif
  • XOR
  • sigmoid
  • abstraction
  • NLP
  • neural net
  • machine learning
  • Set Transformer
  • deep learning
more
Archives
Today
Total
관리 메뉴
  • 글쓰기
  • 방명록
  • RSS
  • 관리

목록Explainable (1)

Research Notes

[DL] Attention

1. Key, Query, Value 2. Self-Attention 3. Attention in Transformer 1. Key, Query, Value Key(K), Query(Q), Value(V)는 Attention의 핵심 키워드. Key, Query, Value의 특징은 아래와 같음 Dictionary 자료 구조이므로, Query와 Key가 일치하면 Value를 리턴함 Dictionary 자료형의 결과 리턴 과정 (attention score를 계산하는 과정과 유사) 1) key와 value의 유사도를 계산 2) 유사도와 value를 곱함 3) 유사도와 value를 곱한 값의 합을 리턴 K, Q, V가 Attention에서는 어떻게 사용될까? Attention이란, query와 k..

Study/Deep Learning 2022. 4. 2. 14:34
이전 Prev 1 Next 다음

Blog is powered by kakao / Designed by Tistory

티스토리툴바