본문 바로가기

[혼자공부하는머신러닝+딥러닝]한권뽀개기18

09-3 LSTM과 GRU 셀 Predicted 0 N 1 P Actual 0 N TN 음성 FP 위양성 1 P FN 위음성 TP 양성 Negative Positive accuracy = 분모가 전부 더한것 TN+TP/ TN+FP+FN+TP 재현율(recall) 정밀도(precision) TP를 찾는것 TP/ FP+TP 양성으로 예측한 것중에 정말 양성인것 (세로) 실제 양성인 것중에서 진짜 양성인것 TP/ FN+TP (가로) 검색엔진은 재현율에 중점을 둔다. (결과가 많아보이려고) 두가지를 절충해서 쓰는 F1 SCORE(조합평균) 2/(1/recall+1/precision) = 2*(recall*precision)/(recall+precision) ROC(수신자작동특성, receiver operational characteristi.. 2022. 4. 7.
09-2 순환 신경망으로 IMDB 리뷰 분류하기 긍정과 부정으로 분류 norm L1 : 맨하탄 거리 -> 라쏘 Lasso L2 : 유클리드 거리 -> 릿지 Ridge : 직선으로 거리 계산(가장 짧은 거리) 이러한 페널티를 적용 유사도 0~1 cosine 2022. 4. 7.
09-1 순차 데이터와 순환 신경망 학습된 모델 학습이 안된 모델 가중치 정규분포 균등분포 CNN : 합성곱층 -> Conv2D 필터 ≒ 뉴런 GPU로 연결하면 성능이 save~ 이미지 같은 것들을 병렬처리 X 75% 25% train, test y 75 25 train, test rv : random variable 확률변수 -순차데이터 순서에 의미가 있는 데이터 ex) 텍스트나 시계열데이터 -피드포워드 신경망 입력데이터의 흐름이 앞으로만 전달되는 신경망 ex) 완전 연결 신경망, 합성곱 신경망 2022. 4. 6.
08-3 합성곱 신경망의 시각화 -함수형 API 원래는 신경망 모델을 만들 때 케라스 Sequential 클래스를 사용했었다. 입력이 2개거나 출력이 2개일 때는 대신 함수형 API를 사용한다. 2022. 4. 5.
08-2 합성곱 신경망을 사용한 이미지 분류 -Conv2D 합성곱 연산 kerner_size : 필터의 커널 크기 지정 2022. 4. 5.
08-1 합성곱 신경망의 구성 요소 커널 = 필터=가중치 네번 계산해서 2행 2열짜리가 된다. 중요하지 않은 거는 0에 가까운 값이 된다. -합성곱 입력 데이터에 도장을 찍어서 유용한 특성만 드러나게 하는 것 합성곱 계산을 통해 얻은 출력을 특성맵(feature map)이라고함 보통 전치가 쉽기 때문에 정방행렬을 많이 쓴다. 3*3 or 5*5 원리 3*3 행렬이 10개이고 인풋을 몰라서 6*6 데이터가 들어간다고 하면 결국 4*4 결과가 10개 나온다.(feature map) 결과가 의미하는 것은 주로 이미지(데이터)의 특징을 나타내는 정보이다. -세임패딩 입력과 특성맵의 크기를 동일하게 만들기 위해 입력 주위에 0으로 패딩하는 것(추가로) 가장 모서리에 있는 애들이 가장 연산을 덜하게 되고 가운데에 있는 애들이 연산을 많이 하게 된다... 2022. 4. 1.
07-3 신경망 모델 훈련 -드롭아웃 학습에 전혀 관여하지 않는다. 훈련과정에서 층에 있는 일부 뉴런을 랜덤하게 꺼서(뉴런의 출력을 0으로 만들어) 과대적합을 막는다. HDF5 파일포맷 : 하둡, 스파크 PYSPARK : 파이썬으로 개발된 스파크 model.save : 학습된 모델을 저장하는 것(용량이 크다) model = keras.models.load_model('model-whole.h5') : 모델 복원 -콜백 과대적합을 막는 또 하나의 방법 메모리가 적재된 것 : 프로세스 직접 호출하는게 아니고 메인(main)에서 등록(register-fn)을 해놓고 특정 이벤트에 의해서 함수(fn)가 호출된다. 비동기적으로 이벤트에 의해서 호출됨. 손실이 줄어들지 않는 시점이 이벤트 epoch20이 event 체크포인트 콜백 : 모델들.. 2022. 4. 1.
07-2 심층 신경망 인공 신경망 : 로지스틱 회귀보다 성능이 좋다. 뉴런 하나하나 마다 bias가 존재한다. 그래서 마지막에 뉴런개수를 더해줘야한다. 은닉층 뉴런도 더해줘야 한다. 시그모이드 : s자로 비선형 항상 출력은 activation 함수를 통과한다. 모든 층들은 dense라고 한다. 기본 태생 자체가 과적합 *중요* softmax : 다중분류일때 sigmoid : 이중분류일때 출력층 : softmax 같이 다중분류가 와야한다. dense1 : 은닉층이 된다.(hidden) 처음 만들때 은닉층을 생각하고 만들어야 한다. **layer를 많이 사용하는 것이 뉴런을 많이 사용하는 것보다 많은 이익이 나온다. Flatten을 쓰면 model summary에서 input layer을 볼수있다. hidden layer(은닉층.. 2022. 3. 31.
07-1 인공 신경망 KEYWORD -인공신경망 : 머신러닝 알고리즘, 딥러닝 이라고도 함 -텐서플로 : 구글이 만든 딥러닝 알고리즘 CPU와 GPU를 사용하여 인공 신경망 모델을 효율적으로 훈련함 텐서플로 2.0 부터는 신경망 모델을 아주 빠르게 구성할 수 있는 케라스를 핵심 API로 채택함 -밀집층: 가장 간단한 인공 신경망의 층 특별히 출력층에 밀집층을 사용할 때는 분류하려는 클래스와 동일한 개수의 뉴런을 사용함 from tensorflow import keras -원-핫 인코딩: 정숫값을 배열에서 해당 정수 위치의 원소만 1이고 나머지는 모두 0으로 변환한다. 이런 변환이 필요한 이유는 다중 분류에서 출력층에서 만든 확률과 크로스 엔트로피 손실을 계산하기 위해서이다. 'sparse_categorical_entropy'.. 2022. 3. 29.