방문해 주셔서 감사합니다.
뉴런이 출력하는 값은 다음 뉴런에 바로 전송하지 않고 비선형으로 만들어 전송합니다.
그리고 비선형으로 값으로 만들려면 활성화 함수(Activation Function)를 사용합니다.
활성화 함수의 종류에는 시그모이드 함수(Sigmoid Function), 렐루(ReLU)함수가 있습니다.
시그모이드 함수는 다음과 같이 부드러운 형태를 가집니다.
렐루 함수는 다음과 같이 계단 형태를 가집니다.
이 두개의 함수가 가장 많이 쓰이는 활성화 함수입니다.
시그모이드 함수가 계산이 편리하고 시그모이드 함수를 사용하겠습니다.
시그모이드 함수를 수식으로 표현하면 다음과 같습니다.
위의 식에서 무리수 e는 2.718281이며, 값이 변하지 않는다. 그러므로 상수입니다.
x의 값이 0이라고 했을 때
2.17828^-0은 1이므로 y = 1/2입니다.
다음 시간에 신경망에서의 노드에서 시그모이드 함수를 어떻게 활용하는지 알아봅시다.
봐주셔서 감사합니다. 문의 또는 잘못된 설명은 아래의 댓글에 부탁드립니다.
당신의 작은 누름이 저에게는 큰 희망이 됩니다.
컨텐츠의 내용을 더 보려면 바로 아래에서 확인할 수 있습니다.
컨텐츠
더보기
댓글 0개
정렬기준