패스트캠퍼스/딥러닝·인공지능Signature초격차패키지Online

패스트캠퍼스 환급챌린지 25일차 : Part2. 인공지능의 이해 Lv1. 인공지능/딥러닝 파헤치기

EveryDay.DevUp 2025. 3. 29. 22:05

본 포스팅은 패스트캠퍼스 환급 챌린지 참여를 위해 작성하였습니다.

https://bit.ly/4hTSJNB

 

🚨[D-3] 4월 1일 00시 강의 가격 최대 13% 인상! | 패스트캠퍼스

3월 31일 이후 비싸집니다. 가격 인상 전 지금이 3월 마지막 기회! 지금 바로 시작하세요.

fastcampus.co.kr

Ch06-01 Vanishing Gradient

- DNN이 깊어질 수로 미분이 반복되면서, Gradient가 사라지는 이슈 

: 주범은 sigmoid (최대 기울기가 1/4)

: 깊은 구조의 효과를 보기 어려워지고, underfitting (로스를 줄이지 못하는 현상) 문제가 발생하게 됨

Ch06-02 Vanising Gradient 방지, ReLU

-  ReLu(Rectfied Linear Unit)  : 액티베이션에서 양수는 값을 출력하고 음수의 출력은 줄이는 방버

: leaky ReLue => 음수를 매우 작은 기울기 0.01x로 약간의 값만 가지도록함

: Parametric ReLU => y = ax 기울기를 학스시키는 ㅏ업

Ch06-03 Vanising Gradient 방지, Batch Normalization

- 한 노드가 입력받는 데이터를 재배치하고, 얼마만큼의 간격으로 뿌려줄지를 결정하는 방법 (평균과 표준 편차)

Ch06-04 overfitting 방지, Data argumentation

- overfitting은 Traning할 때는 잘하지만, 실제 Test에서는 맞히지 못하는 경우 (학습이 너무 많이 되면 암기와 같은 효과를 내게 됨)

- overfitting 을 방지하기 위한 방법

: 모델의 경량화

: data argumentation => 데이터를 늘리는 방법 (데이터를 회전시키고, 일부만 잘라내기도, 축소하기도하는 등 다양한 방법으로 같은 데이터를 증가시킴)

Ch06-05 overfitting 방지, dropout dropconnect

- dropout

: 랜덤하게 특정 레이어의 노드를 가리면서 학습시키는 방법으로, 서로 다른 작은 네트워크를 여러개 학습시키는 효과를 가짐

: 적용하고 싶은 레이어에 dropout을 적용하고, 노드를 보일 확률 p (하이퍼 파라미터)를 각 레이어별로 설정

: 데이터 하나를 통과할 때마다 dropout을 적용하면서 학습하고, test 할때는 숨기는 노드 없이 사용하는 대신 p를 곱해서 사용함

- dropconnect

: 노드와 노드를 연결하는 커넥션을 숨김, 노드가 연결선으로 변경된 부분외에는 dropout과 원리가 동일함

Ch06-06 overfitting 방지, Ip-Regularzation

- Loss에  weight 크기를 더해서 같이 고려하는 것으로 처음에는 L (Loss)를 많이 고려하다가 L이 어느정도 줄어들면 L이 크게 커지지 않는 선에서 Ip를 줄임

: I1 => 크건 작건 똑같은 힘으로 줄임

: I2 => 작은 웨이트는 작게, 큰 웨이트는 크게 줄임