EE Major/AI Model 2

[딥러닝개론] Activation Function

시그모이드 함수 장단점- s자 형태 - 출력값의 부드러운 변화- 비선형 함수로 효과적인 학습- 입력값을 0-1 사이의 확률값으로 변환 가능, 이진 분류 easy- 그래디언트가 작아져 손실될 우려 가능성 존재- 출력값 평균이 0.5가 되는 특징을 가짐 --> 0.5 중심이 되지 않는 경우 학습 못할 가능성 존재ReLU 함수 장단점- 입력이 0을 남으면 그대로 출력- 0 이하면 입력을 출력하는 함수- 양수에는 포화가 발생되지 않음- exp 연산이 없어서 빠르다- 0 중심이 아니기에 지그재그가 될 수 있는 문제

EE Major/AI Model 2024.11.15

[딥러닝 개론] Neural Networks, 신경망이란?

신경망, 뇌로부터 영감받음 --> 신경(뉴런) + 망(어떻게 연결)--> 뉴런 : 0-1사이의 수를 가지는 무언가--> ex. 28*28 픽셀, 총 784개의 뉴런, 마지막 레이어 - 각 숫자에 대응하는 뉴런 존재--> 각 뉴런마다 색조 값(출력값) 가짐 | 검을 수록 0 | 하얄수록 1--> 이 뉴런들이 레이어(층)를 이룸--> 첫 층 레이어와 마지막 레이어 사이를 은닉 레이어기본 형태: 다층 퍼셉트론 구조신경망 연산 과정(정보처리 과정) : 한 쪽 레이어의 출력값이 다른 층의 출력값을 결정--> 생물학적 신경망을 느슨하게 모방함레이어 층 구조가 합리적인 이유 : 가장자리와 패턴을 추적하기에 적합함ex. 음성인식 | 음절 --> 조합해 단어만듬 --> 단어 구성 조합 ex. 숫자인식신경망에는 어떤 파라..

EE Major/AI Model 2024.11.15