패스트캠퍼스/딥러닝·인공지능Signature초격차패키지Online

패스트캠퍼스 환급챌린지 23일차 : Part2. 인공지능의 이해 Lv1. 인공지능/딥러닝 파헤치기

EveryDay.DevUp 2025. 3. 27. 08:29

본 포스팅은 패스트캠퍼스 환급 챌린지 참여를 위해 작성하였습니다.

https://bit.ly/4hTSJNB

🔥누적 수강 9백만 시간 돌파 기념 100% 페이백 (03.22 - 03.27) | 패스트캠퍼스

단 6일 한정! 지금 수강 시작하면 수강료 100% 돌려드려요!

fastcampus.co.kr

Ch04-02 이진분류 1 (sigmoid를 이용한 이진분류)
- 이미지 데이터 3 (rgb) × 100 × 100 를 입력 레이어로 넣는 경우
- 출력층에 출력 값은 0과 1의 값 2가지 값을 사용 (sigmoid 임으로 출력이 부드럽게 됨)
- 이 경우 weight (웨이트)는 입력데이터 개수만큼임으로 3만개 출력 노드는 1개 임으로 bias(민감도)는 1개 총 3만1개의 데이터가 사용됨
- 이진 분류 문제의 로스를 구하기 위한 방법으로 머신의 예측확률을 q라고하고 결과를 p라고 정의하면 로스를 구하기 위한 수학적 공식은 다음과 같음
: q^p(1-q)^1-p 해당 값을 최대화하는 것
: p=0 일때와 p=1일 때의 수식을 생각해보면 확인 가능

Ch04-03 이진분류 2 (sigmoid를 이용한 이진분류)
- 위에사 구한 로스 함수에 이미지 한장 한장을 대입하여 곱하는 경우 (이미지를 넣어서 분류하는 것은 독립 시행이기 때문에 확률을 곱해야함) 하지만, 확률을 곱할 수록 0으로 수렴하게 됨 (값이 0~1사이이기 때문)
- 로그를 수식에 넣어줌으로써 곱을 합으로 변경할 수 있음. 로그를 사용할 수 있는 이유는 로그의 방향성도 결국 양으로 수렴하기 때문
: logx를 최대화하는 것이 w를 최대화하는 방향성과 같음
- likelihood : 조건부 확률 값은 맞지만 조건부 확률은 아닌 것으로, 예를 들어 2개 이상의 주머니에서 특정 색을 가진 공을 꺼낸다고 했을 때. 특정 색을 가진 공을 꺼냈다면 어느 주머니에서 뽑은 것인지를 구하는 것

Ch04-04 MSE vs log-likelihood
- 로스함수 MSE와 log-likelihood를 비교했을 때
:log-likelihood가 더 민감하게 오차에 반응하고, 마지막 sigmoid activation에서 mse는 non-convex하고 log-likelihood는 convex함
: convex는 그라디언트디센트 하기 좋은 그래프

Ch04-05 인공신경망른 MLE기계다.
- MLE : maximun likelihood estimation
- argmax(y|f(x)) 를 찾는 것이 목표
- 베르누이 또는 가우시안으로 f(x)를 보는 관점의 차이