본문 바로가기
[혼자공부하는머신러닝+딥러닝]한권뽀개기

07-2 심층 신경망

by 발뛰 2022. 3. 31.

인공 신경망 : 로지스틱 회귀보다 성능이 좋다.

뉴런 하나하나 마다 bias가 존재한다. 그래서 마지막에 뉴런개수를 더해줘야한다.

은닉층 뉴런도 더해줘야 한다.

시그모이드 : s자로 비선형

항상 출력은 activation 함수를 통과한다.

 

모든 층들은 dense라고 한다.

기본 태생 자체가 과적합

 

*중요*

softmax : 다중분류일때

sigmoid : 이중분류일때

 

출력층 : softmax 같이 다중분류가 와야한다.

dense1 : 은닉층이 된다.(hidden)

처음 만들때 은닉층을 생각하고 만들어야 한다.

 

**layer를 많이 사용하는 것이 뉴런을 많이 사용하는 것보다 많은 이익이 나온다.

 

Flatten을 쓰면 model summary에서 input layer을 볼수있다.

 

hidden layer(은닉층)은 activation으로 뭘 사용할까?

초창기 모델에는 sigmoid를 썼다.

그 다음에는 ReLU함수를 쓴다.

 

-ReLU

비선형함수,

음수는 0 양수는 자기자신으로 만드는 함수

이미지, 포토샵 등에 많이 활용되는 함수

 

모두다 softmax를 사용한다?

'[혼자공부하는머신러닝+딥러닝]한권뽀개기' 카테고리의 다른 글

08-1 합성곱 신경망의 구성 요소  (0) 2022.04.01
07-3 신경망 모델 훈련  (2) 2022.04.01
07-1 인공 신경망  (2) 2022.03.29
06-3 주성분 분석  (0) 2022.03.29
06-2 k-평균  (0) 2022.03.29

댓글