인공 신경망 : 로지스틱 회귀보다 성능이 좋다.
뉴런 하나하나 마다 bias가 존재한다. 그래서 마지막에 뉴런개수를 더해줘야한다.
은닉층 뉴런도 더해줘야 한다.
시그모이드 : s자로 비선형
항상 출력은 activation 함수를 통과한다.
모든 층들은 dense라고 한다.
기본 태생 자체가 과적합
*중요*
softmax : 다중분류일때
sigmoid : 이중분류일때
출력층 : softmax 같이 다중분류가 와야한다.
dense1 : 은닉층이 된다.(hidden)
처음 만들때 은닉층을 생각하고 만들어야 한다.
**layer를 많이 사용하는 것이 뉴런을 많이 사용하는 것보다 많은 이익이 나온다.
Flatten을 쓰면 model summary에서 input layer을 볼수있다.
hidden layer(은닉층)은 activation으로 뭘 사용할까?
초창기 모델에는 sigmoid를 썼다.
그 다음에는 ReLU함수를 쓴다.
-ReLU
비선형함수,
음수는 0 양수는 자기자신으로 만드는 함수
이미지, 포토샵 등에 많이 활용되는 함수
모두다 softmax를 사용한다?
'[혼자공부하는머신러닝+딥러닝]한권뽀개기' 카테고리의 다른 글
08-1 합성곱 신경망의 구성 요소 (0) | 2022.04.01 |
---|---|
07-3 신경망 모델 훈련 (2) | 2022.04.01 |
07-1 인공 신경망 (2) | 2022.03.29 |
06-3 주성분 분석 (0) | 2022.03.29 |
06-2 k-평균 (0) | 2022.03.29 |
댓글