일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- Transformer
- Attention
- pytorch
- Classificaion
- NLP
- neural net
- python practice
- word2vec
- elif
- abstraction
- XOR
- deep learning
- overfitting
- sigmoid
- GNN
- Self-loop attention
- Python
- sentence embedding
- Set Transformer
- machine learning
- Today
- Total
Research Notes
[ML] Logistic Classification 본문
▶ Review(Linear Regression)
- Linear Regression : X값들을 이용하여 Y값을 예측하는 한 함수를 찾는 것.
- Hypothesis : X(데이터) * W(가중치)
- Cost 함수를 통해 손실을 최소화 하는 지점을 찾음(손실 최소화 = 실제값과 예측값의 차이 최소화)
- 손실이 최소화 되는 지점을 찾기 위한 알고리즘 : Gradient Decent Algorithm, 학습률(Learning Rate)를 지정하여 경사를 이동해가는 폭을 조정.
▶ Classification(분류)
- ex) 스팸 이메일 분류 : 스팸 or 햄, 페이스북 피드 분류 : 보여주기 or 숨기기, 신용카드 사용자 분류 : 진짜 사용자 or 가짜 사용자.
- 분류하고자 하는 것들을 0, 1같은 숫자로 나타내어 분류.
- sigmoid 함수로 가설함수를 정의!!★★★★
- Logistic Hypothesis(sigmoid함수 대입) : sigmoid 함수에 H(x) = WX 식 대입.
▶ Logistic Classification의 cost 함수
- New cost function
H(x)는 sigmoid함수 때문에 1/1+e^-2의 형태를 가지는데 매끈한 선을 만드는데 방해가 됨. 그렇기 때문에 이와 반대인 log함수를 씌움.
- 위의 cost함수는 if문이 있기 때문에 코드에서 구현시 어려움이 있을수 있기 때문에 아래와 같은 식으로 변형.
y=1, c = -1 * log(H(x))
y=0, c = -1 * log(1-(H(x)), 가 되기 때문에 위의 식과 같음.
'Study > Machine Learning' 카테고리의 다른 글
[ML] Practice and Tips of Machine Learning (0) | 2023.07.03 |
---|---|
[ML] Softmax Regression (Multinomial Logistic Regression) (0) | 2023.07.03 |
[ML] Linear Regression (0) | 2023.07.03 |
[ML] Concept of Machine Learning (0) | 2023.07.03 |
[ML] Permutation invariant (0) | 2022.08.29 |