패스트캠퍼스 환급챌린지 24일차 : Part2. 인공지능의 이해 Lv1. 인공지능/딥러닝 파헤치기
본 포스팅은 패스트캠퍼스 환급 챌린지 참여를 위해 작성하였습니다.
https://bit.ly/4hTSJNB
🚨[D-4] 4월 1일 00시 강의 가격 최대 13% 인상! | 패스트캠퍼스
3월 31일 이후 비싸집니다. 가격 인상 전 지금이 3월 마지막 기회! 지금 바로 시작하세요.
fastcampus.co.kr
Ch04-06 다중분류1
- 시그모어를 사용하여 출력을 여러개로 분류한다고 가정했을 때
ex) 0은 a 0.5는 b 1은 c 라고 할 경우 다음과 같은 이슈가 발생함
: 불공평한 백프롭 => 차지하는 영역이 다를 수 있음
: 1000가지, 10000가지 분류 등 분류가 많아질 수록 분류에 대한 값의 정이가 예민해짐
: 중간 값에 따라 의도하지 않은 분류를 만들어 낼 수 있음
- 출력노드의 개수를 늘랴서 시그모어로 출력했을 때의 문제에 대한 해결이 가능 => 확률 분포를 사용
: 0 ~ 1 사이의 값을 가지고 합이 1인 출력
: 머심릐 출력이 확률 분포를 따를 수 있도력 마지막 액티베이션이후에 소프트 맥스를 사용함
Ch04-07 다중분류2
- 로스의 계산을 위새 크로스 엔트로피를 사용
: weight, bias를 조종해서 확률 값에 가까워지는 것이 목표
Ch04-08 Summary
- 인공신경망을 만들기 위해 다음의 절차를 따르게 됨
step1. 입력과 출력을 정의
step2. 인공신경 모델을 만듬
step3. 어떻게 loss를 정의
step4. weight 최적화
Ch05-01 Universal Approximation Theron
- DNN은 행렬을 곱하고 벡터를 더하는 액티베이션의 반복이지만, 히든 레이어가 한 개만 있어도 어떤 연속 함수던지 나타낼 수 있음
- 히든레이어를 통해 loss를 0으로 만들 수 있기 때문에 DNN을 사용함
- 히든레이러를 늘리면 노드의 개수를 줄일 수 있음
Ch05-02 Beautiful insight Ann
- 인공신경망의 대한 총정리
- 인공 신경은 사람의 신경에서 모티브를 삼아 만들어짐
: 노드와 엣지로 구성되고, 웨이트를 곱하고 바이어스를 더하는 액티베이션의 반복임
: 주어진 데이터에 대해서 원하는 출력이 나오도록 웨이트와 바이어스 것이 ai 학습
: 웨이트와 바이어스를 알아내기 위해서 그라디언트 디센트을 사용함
: 적절한 웨이트와 바이어스를 조정하면서 로스의 최소값을 찾아냄으로서 적절한 웨이트와 바이어스를 찾음



