패스트캠퍼스 환급챌린지 20일차 : Part2. 인공지능의 이해 Lv1. 인공지능/딥러닝 파헤치
본 포스팅은 패스트캠퍼스 환급 챌린지 참여를 위해 작성하였습니다.
커리어 성장을 위한 최고의 실무교육 아카데미 | 패스트캠퍼스
성인 교육 서비스 기업, 패스트캠퍼스는 개인과 조직의 실질적인 '업(業)'의 성장을 돕고자 모든 종류의 교육 콘텐츠 서비스를 제공하는 대한민국 No. 1 교육 서비스 회사입니다.
fastcampus.co.kr
Ch02-01 인공신경
- 신경 : 인간의 신경은 자극을 전달 받고, 전달 받은 자극을 전달할지 말지를 결정하여 최종적으로 자극을 전달하게됨
- 인공 신경 : 인공 신경은 인간의 신경의 작용을 인공적으로 표현한 것으로 노드와 엣지로 구성됨
: 노드와 노드 사이의 연결인 엣지는 데이터의 중요도에 따라 가중치 (Weight)를 곱하여 표현함
: 노드에서의 출력은 Bias (민감도) + 가중치 * 데이터를 통해서 실행 (액티베이션)하게 됨
: 인공 신경에는 여러가지의 액티베이션이 존재 (리니어, 스텝 등)
: 주어진 입력에 대하여 원하는 출력이 나오도록 가중치, 민감도를 조정하는 과정을 AI 학습이라고 함
Ch02-02 인공신경망 ANN (Artifical nerual network)
- 인공 신경이 반복되도록 구성
: MLP (multilayer perceptron) : 모든 노드들이 연결된 신경망
: 데이터를 입력 받은 input layer, 데이터를 출력하는 output layer, 그 사이에 숨겨진 hidden layer로 구성됨
: 깊은 신경망 (Deep neural network) 은 히든레이어가(과거 3개 이상인 경우)가 많은 경우를 말함
: FC (fully-connected) layer : 노드끼리 모두 연결된 레이어
Ch02-03 선형 회귀
- 회귀 : 입력과 출력간의 선형 관계를 파악하는 것으로, 처음 입력되는 데이터에 대하여 적합합 출력을 얻기위한 모델
: 데이터를 기반으로 하여 loss(=cost)를 최소화하는 값을 찾는데 목표가 있음
: loss는 예측 결과와 실제 결과의 차이로 계산할 수 있으며, 차이를 계산할 때는 제곱을 통하여 값을 보정하게 됨
: loss를 최소화하는 방법을 찾기 위해 AI를 사용하게 되고, 변수를 변경할 때마다 loss 값을 계산하여 최소 값을 계산하는 과정을 반복하게 됨
Ch02-04 경사하강법 (Gradient descent)
- 선형 회귀에서 loss를 최소화하기 위한 값을 찾는 방법
- 그라디언트의 특징은 항상 가장 가파른 방향의 방향성을 가지고 있기 때문에, 해당 방향에 반대 방향으로 방향을 잡으면 최소화된 값을 찾을 수 있다는 특성을 사용한 경사하강법을 사용
- 경사하강법을 사용해도, 해당 값의 크기가 클 경우 값이 반복되는 현상이 나타나기 때문에 러닝 레이트를 통해 적절한 값을 설정하는 것이 필요함
- 경사하강법의 단점
: 모든 데이터를 고려하기 때문에 방향을 잡기 위한 부하가 존재, 지역적 최소화 값을 찾기 때문에 초기 값이 중요해짐
Ch02-05 가중치 초기화
- 초기 값을 잡기 위한 방법으로, LeCun, Xavier, He 세 사람이 초기값을 잡는 방법을 제안함, 대부분은 He의 방법론을 따름
: 고통적으로 랜덤하게 값을 잡으면서, 평균은 0 근처로 값이 되도록 함



