패스트캠퍼스/딥러닝·인공지능Signature초격차패키지Online

패스트캠퍼스 환급챌린지 15일차 : Part1 딥러닝을 시작하기전에 강의 후기

EveryDay.DevUp 2025. 3. 19. 12:10

본 포스팅은 패스트캠퍼스 환급 챌린지 참여를 위해 작성하였습니다.

https://bit.ly/4hTSJNB

 

커리어 성장을 위한 최고의 실무교육 아카데미 | 패스트캠퍼스

성인 교육 서비스 기업, 패스트캠퍼스는 개인과 조직의 실질적인 '업(業)'의 성장을 돕고자 모든 종류의 교육 콘텐츠 서비스를 제공하는 대한민국 No. 1 교육 서비스 회사입니다.

fastcampus.co.kr

Ch04-17 사이킷 런

- 기계학습을 위한 다양한 기능을 제공하는 라이브러리

- 가상 데이터 생성 및 기본 데이터 세트, 기계학습 모델을 제공

1) 지도 학습

- 문제가 주어졌을 때 정답 레이블이 존재하는 학습, 학습은 문제 x를 풀고, 정답 y를 예측하도록 하고, 테스트를 통해 새로운 문제 x가 주어졌을 때 정답을 예측하도록함

Ch04-18 가상 데이터 생성

- 분류 모델 학습을 위한 가상 데이터 생성 기능 제공

1) make_blobs

- 정규 분포를 따르는 가상 데이터를 생성, 여러개의 클러스터가 존재하는 형태로 데이터가 생성됨

2)  make_moons

- 초승달 모양의 클러스터 두개를 생성, 비선형 분류 모델을 평가하기 위한 목적

3) make_circles

- 하나의 작은 원을 포함하는 큰 원을 생성, 클러스터링 혹은 분류 알고리즘을 평가하기 위한 목적으로 사용됨

4) make_regression

- 회귀 문제를 위한 가상 데이터 생성, 직선 형태의 분포를 가지는 데이터를 생성함

Ch04-19  학습 데이터와 테스트 데이터 분리

1) 오버 피팅

- 학습 데이터에서는 높은 성능을 보이지만, 테스트 단계에서 정확도가 떨어지는 문제

2) 검증 데이터 세트

- 학습 데이터를 이용해 학습을 진행할 때, 검증 데이터 세트에 대해서 가장 높은 정확도를 가지는 모델을 선택하여 오버 피팅 문제를 해결함

3) 데이터 세트의 구분

- 학습데이터 세트 : 학습을 위해 사용하는 데이터 세트로 전체 데이터 세트에서 60~80% 를 사용

- 검증 데이터 세트 : 학습 데이터에 검증을 위해 사용하는 데이터 세트로, 검증용 데이터에서 높은 성능이 나오는 것이 목표

- 테스트 데이터 세트 : 학습 모델을 테스트하기 위해 사용하는 데이터 세트로, 최종적인 성능 테스트에 사용

Ch04-20 ROC 커브

1) 분류 모델의 판단

- 하나의 제품이 주어졌을 때 결합 탐지를 수행한다고 할 경우, 불량품에 대해서는 양성으로 판단한다고 했을 때 TP(True Positive,) FP(False Positive), TN (True Negative), FN(False Negative)로 평가척도를 삼음

2) 민감도와 특이도

- 민감도 : 실제로 양성인 것을 양성으로 판단하는 정확도

- 특이도 : 실제로 음성인 것을 음성으로 판단하는 정확도

3) ROC 커브

- 사용할 수 있는 모든 쓰레드홀드에 대하여 TPR과 FPR를 나타낸 것으로, TPR 은 정답을 맞힌 비율, FPR은 정답을 맞추지 못한 비율

- TPR (True Positive Rate) = 민감도 = TP / (TP + FN), FPR (False Positive Rate) = (1 - 특이도) = FP / (TN + FP)

Ch04-21 다양한 기계학습 모델 사용 방법

- 의사결정트리

- 랜덤포레스트

- SVM

- 선형회귀