EveryDay.DevUp

패스트캠퍼스 환급챌린지 6일차 : Part1 딥러닝을 시작하기전에 강의 후기 본문

패스트캠퍼스/딥러닝·인공지능Signature초격차패키지Online

패스트캠퍼스 환급챌린지 6일차 : Part1 딥러닝을 시작하기전에 강의 후기

EveryDay.DevUp 2025. 3. 10. 12:20

본 포스팅은 패스트캠퍼스 환급 챌린지 참여를 위해 작성하였습니다.

https://bit.ly/4hTSJNB

 

온라인 강의 7주년 기념 1+1 이벤트 특별 연장! (3/10~3/12) | 패스트캠퍼스

단 3일! 미션, 리뷰, 인증 NO! 강의 사면 무.조.건 1+1 쿠폰 증정🎉

fastcampus.co.kr

Ch01-09 베이즈 정리

- 베이즈 정리 설명을 위한 예시

: 입력된 텍스트 X가 특정 클래스에 속할 확률 Y => X -> 분류 모델 -> Y = ?%인가에 대한 문제가 있을 때 (Y = y1, y2 2가지 분류)

: 주어진 데이터에 따르면 y1 = 70%, y2 = 30%, y1에 특정 단어가 있을 확률은 90%, y2에 특정 단어가 있을 확률은 3%, 특정한 단어가 들어 있는 텍스트가 y1일 확률은 어떻게 되는가?

- 베이즈 정리 공식

: P (Y|X) = P(X|Y)P(Y)/P(X) = X가 주어 질 때, Y의 확률

: 예시에서 P(X) = 특정 텍스트가 나올 확률,  P(Y) 특정 클래스가 나올 확률, P(X|Y) 특정 클래스에서 특정 텍스트가 나올 확률, P(Y|X) 특정 텍스트에서 특정 클래스가 나올 확률

: 주어진 문제를 공식에 따라서 풀 때 P(X|y1) = 0.9, P(y1) = 0.7, P(X)는 주변 확률 공식에 의해서 P(X) = P(X 교집합 y1) + P(X 교집합 y2) = 0.9 * 0.7 + 0.3 * 0.03 = 0.639

: 따라서 0.9 * 0.7 / 0.639로 확률을 구할 수 있음

- 확률 모델

: 일반적인 분류 모델 P(Y|X)에서 Y의 예측 값은 Y = argmaxyP(Y|X) 로, argmaxy는 P(Y|X)에서 Y의 값이 최대화 되는 Y의 값을 찾음

: Y = argmaxyP(Y|X) = argmaxy P(X|Y) * P(Y) / P(X) 인데, P(X)는 상수로 취급하여 무시하여 = argmaxy P(X|Y) * P(Y)로 구하고 이를 황금 모델이라고 함

- 최대 가능도 측정

: 가능도가 가장 높은 클래스를 선택, 사후 확률을 직접적으로 계산하기 어렵기 때문에 가능도를 사용하며, 가능도 만으로는 사후 확률에 완전히 근사할 수 없는 한계가 있음

=> 베이즈 정리 공식을 사용해서, 기존의 데이터에서 나온 확률로 다른 확률을 계산할 수 있다는 점이 알아두어야 할 점.

Ch01-10 평균과 기대값

1) 평균 

- 모든 관측 값을 더한 뒤 관측 값의 개수로 나누는 것, 다만 이상한 값이 중간에 껴있을 경우에 영향을 많이 받게 됨

2) 중앙 값

- 주어진 값들을 순서에 따라 정렬하고, 중앙에 위치 하는 값을 뽑음, 이상한 값이 중간에 껴있어도 영향을 덜 받음

=> 평균은 데이터의 분포가 정규 분포와 같이 대칭적인 경우에 사용하고, 중앙 값은 데이터의 분포가 한쪽으로 치우칠 경우에 사용

3) 기댓 값

- 확률 변수와 확률 값을 곱하여 전체 사건에 대하여 모두 더한 값으로, 새로운 데이터가 관측 되었을 때 그 데이터가 어떤 값을 가질지에 대한 예측을 할 수 있음

- 예를 들어, 복권을 구매했을 때 당첨금과 복권 구매 금액을 비교하여 예상 수익을 계산해 볼 수 있음 

=> 이상치에 따라 어떤 값을 사용할 지에 대한 고민이 필요하고, 이를 바탕으로 가설에 대한 기대 값을 계산할 수 있다는 것을 기억해야함.