패스트캠퍼스 환급챌린지 30일차 : Part3. 인공지능의 이해 Lv2 : 숲을 보는 인공지능
본 포스팅은 패스트캠퍼스 환급 챌린지 참여를 위해 작성하였습니다.
https://bit.ly/4hTSJNB
커리어 성장을 위한 최고의 실무교육 아카데미 | 패스트캠퍼스
성인 교육 서비스 기업, 패스트캠퍼스는 개인과 조직의 실질적인 '업(業)'의 성장을 돕고자 모든 종류의 교육 콘텐츠 서비스를 제공하는 대한민국 No. 1 교육 서비스 회사입니다.
fastcampus.co.kr
Ch04-01 선형회귀모델
- 하나 이상의 변수가 다른 변수에 미치는 영향을 알아보는 통계
- 회귀선 : 변수 X (독립 변수)와 변수 Y(종속 변수)사이에 있는 관계를 나타낸 선
- 1차 방정식 y = Wx + b -> H(x)[가설] = Wx +b
- 상관 분석 vs 선형 회귀 분석
: 상관 분석은 두 개의 변수가 있을 때의 관련성을 활용하고, 선형회귀 분석은 얼만큼 영향을 주는가를 확인하여 예측에 활용
- Loss : 가설과 실제 값의 차이 (부호를 없애기 위해 제곱 연산을 사용함)
- 최적의 회귀선을 찾기 위해 W와 b의 값을 찾는 것이 목표
: 최적을 찾기 위해 비용 함수 -> 모든 점에 대해서 로스를 구하고 그 합의 평균을 계산함
: 경사하강법을 통해 값을 찾아나가는 학습을 진행하게 됨
- 다중회귀분석
: 여러개의 독립 변수가 영향을 주는 경우가 현실에서 많기 때문에 다중회귀분석을 사용하게됨
: 인공신경망도 가중치를 찾아내는 과정
- 선형회귀 분석은 독립 변수와 종속 변수의 선형 관계를 통해 예측을 하기 위해서 사용
: 단, 데이터에 대한 스케일링이 필요
Ch04-02 그 밖의 회귀 알고리즘
- 의사결정나무회귀알고리즘
: 최종 결과 값이 카테고리가 아닌 실수로 나오기 때문에 어떤 카테고리에 속할 확률로 이해할 수 있음
- Logistic Regression
: sigmoid 함수를 사용
: y와 x의 관계를 설명하는 수식을 구하고 싶은 경우
: 분석 대상들이 집단으로 나뉘어 졌을 때, 선형호귀의 결합을 이용해 어느 집단에 속할지 확인하거나, 이항 문제에서 사용
Ch04-03 회귀 알고리즘의 평가 방법
1) SSG (Sum of Square Explained)
- 데이터와 예측 값의 차이의 제곱의 합
2) SSR (Sum of Squares Regression)
- 실제 값의 평균과 예측 값의 차이의 제곱의 합
3) SST (Sum of Square Total)
- 각각의 점과 실제 값의 평균의 차이의 제곱의 합
4) R Square = 회귀선에 의해 설명되는 변동 / 전체 변동
5) Adjusted R Square
- 독립변수의 개수가 많아질 수록 결정 계수 값이 무조건 증가
- 패널티를 부여하여 수식을 변형
6) 실제 Y값과 예측 값의 차이가 얼마나 나는지 계산
- MSE : 실제 값과 예측 값의 차이를 제곱하여 평균
- MAE : 실제 값과 예측 값의 차이(절댓값)에 대한 평균
- MAPE : MAE를 퍼센트로 변환한 지표



