일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- base64
- Tween
- Custom Package
- Dots
- ui
- 패스트캠퍼스
- DotsTween
- 커스텀 패키지
- 패스트캠퍼스후기
- 암호화
- 환급챌린지
- Job 시스템
- 샘플
- C#
- 2D Camera
- job
- 최적화
- 가이드
- TextMeshPro
- adfit
- RSA
- AES
- sha
- 프레임워크
- 직장인자기계발
- Unity Editor
- 오공완
- 직장인공부
- Framework
- unity
- Today
- Total
목록환급챌린지 (37)
EveryDay.DevUp

본 포스팅은 패스트캠퍼스 환급 챌린지 참여를 위해 작성하였습니다.https://bit.ly/4hTSJNB 🚨[D-3] 4월 1일 00시 강의 가격 최대 13% 인상! | 패스트캠퍼스3월 31일 이후 비싸집니다. 가격 인상 전 지금이 3월 마지막 기회! 지금 바로 시작하세요.fastcampus.co.krCh06-01 Vanishing Gradient- DNN이 깊어질 수로 미분이 반복되면서, Gradient가 사라지는 이슈 : 주범은 sigmoid (최대 기울기가 1/4): 깊은 구조의 효과를 보기 어려워지고, underfitting (로스를 줄이지 못하는 현상) 문제가 발생하게 됨Ch06-02 Vanising Gradient 방지, ReLU- ReLu(Rectfied Linear Unit) : 액티..

본 포스팅은 패스트캠퍼스 환급 챌린지 참여를 위해 작성하였습니다.https://bit.ly/4hTSJNB 🚨[D-4] 4월 1일 00시 강의 가격 최대 13% 인상! | 패스트캠퍼스3월 31일 이후 비싸집니다. 가격 인상 전 지금이 3월 마지막 기회! 지금 바로 시작하세요.fastcampus.co.krCh04-06 다중분류1- 시그모어를 사용하여 출력을 여러개로 분류한다고 가정했을 때ex) 0은 a 0.5는 b 1은 c 라고 할 경우 다음과 같은 이슈가 발생함: 불공평한 백프롭 => 차지하는 영역이 다를 수 있음: 1000가지, 10000가지 분류 등 분류가 많아질 수록 분류에 대한 값의 정이가 예민해짐: 중간 값에 따라 의도하지 않은 분류를 만들어 낼 수 있음- 출력노드의 개수를 늘랴서 시그모어로 출..

본 포스팅은 패스트캠퍼스 환급 챌린지 참여를 위해 작성하였습니다.https://bit.ly/4hTSJNB 🔥누적 수강 9백만 시간 돌파 기념 100% 페이백 (03.22 - 03.27) | 패스트캠퍼스단 6일 한정! 지금 수강 시작하면 수강료 100% 돌려드려요!fastcampus.co.krCh04-02 이진분류 1 (sigmoid를 이용한 이진분류)- 이미지 데이터 3 (rgb) × 100 × 100 를 입력 레이어로 넣는 경우- 출력층에 출력 값은 0과 1의 값 2가지 값을 사용 (sigmoid 임으로 출력이 부드럽게 됨)- 이 경우 weight (웨이트)는 입력데이터 개수만큼임으로 3만개 출력 노드는 1개 임으로 bias(민감도)는 1개 총 3만1개의 데이터가 사용됨- 이진 분류 문제의 로스를 구..

본 포스팅은 패스트캠퍼스 환급 챌린지 참여를 위해 작성하였습니다.https://bit.ly/4hTSJNB 🔥누적 수강 9백만 시간 돌파 기념 100% 페이백 (03.22 - 03.27) | 패스트캠퍼스단 6일 한정! 지금 수강 시작하면 수강료 100% 돌려드려요!fastcampus.co.krCh03-01 DNN, 벡터와 행렬로 나누기- 인공신경망은 함수로 나타낼 수 있음: 함수는 벡터와 행렬로 표현할 수 있고, 인공신경망의 노드와 액티베이션관계를 웨이트, 바이어스를 포함하여 행렬을 곱하고 벡터를 더하는 표현의 반복으로 나타낼 수 있음Ch03-02 non-linear activation이 중요한 이유- linear activation으로는 nerual network를 아무리 깊게 만들어도 hidden l..