neural network

images_kimkihoon0515_post_10418242-5204-4ded-8d5a-023505991d64_image.png

신경망에서의 행렬의 곱

images_kimkihoon0515_post_2503790e-ba66-4165-a491-2c6630421f99_image.png

입력값에서 다음 층의 출력값을 행렬곱으로 나타낼 수 있다. 조금 더 일반화를 해보자.

images_kimkihoon0515_post_d86d384d-69f7-46bf-ad7b-ecf8705ce245_image.png

images_kimkihoon0515_post_8cfdb23a-b277-4fde-b0b3-c63b9c648663_image.png

images_kimkihoon0515_post_81029c3e-150d-4a1d-884b-ca21e9455602_image.png

한 노드의 결과값을 식으로 나타내었고 한 출력층의 결과값을 식으로 나타내었다.

images_kimkihoon0515_post_dce4584b-3952-4877-bcc7-86ed6bfe9e89_image.png

여기에다가 activation function도 추가해보았다.

activation function

입력신호의 총합을 출력 신호로 변환하는 함수. 모두 비선형 함수이다. 왜냐하면 선형 함수를 이용하면 신경망의 층을 깊게하는 의미가 없기 때문이다. 따라서 층을 쌓는 혜택을 보려면 비선형 함수를 사용해야 함

sigmoid function

신경망에서 자주 쓰이는 active func의 식과 그래프

images_kimkihoon0515_post_9d436b58-339a-4672-a9de-b88531febd61_image.png

images_kimkihoon0515_post_e8ec0243-6a3e-4de1-b538-acd0678f725a_image.png

ReLU function

최근에는 시그모이드 함수보다 ReLU함수가 더 많이 쓰인다고 한다.

images_kimkihoon0515_post_36ad8584-71a4-46d5-b60e-98ef7d1a4e29_image.png