[혼공 머신] 혼자 공부하는 머신러닝 정리하기 - Chapter 08-1, 08-2
·
AI/AID
08-1 합성곱 신경망의 구성 요소합성곱합성곱은 밀집층과 비선형 활성화 함수의 결합을 통해 입력과 가중치를 곱하고 절편을 더하는 선형 변환입니다. 그러나 밀집층과 달리 각 합성곱은 입력 전체가 아니라 일부만 사용하여 선형 변환을 수행합니다.합성곱 층의 필터는 밀집층의 뉴런에 해당합니다. 필터의 가중치와 절편은 중첩 커널이라고 부릅니다. 자주 사용되는 커널의 크기는 (3, 3) 또는 (5, 5)입니다. 커널의 깊이는 입력의 깊이와 같습니다.특성 맵특성 맵은 합성곱 층이나 풀링 층의 출력 배치를 의미합니다. 필터 하나가 하나의 특성 맵을 만듭니다. 합성곱 층에 5개의 필터를 적용하면 5개의 특성 맵이 만들어집니다.패딩패딩은 합성곱 층 입력 주위에 추가한 0으로 채워진 픽셀입니다. 패딩을 사용하지 않는 것을 ..
[혼공 머신] 혼자 공부하는 머신러닝 정리하기 - Chapter 04
·
AI/AID
주요 키워드로지스틱 회귀다중 분류시그모이드 함수소프트맥스 함수04-1 로지스틱 회귀다중분류란타겟 데이터에 2개 이상의 클래스가 포함된 문제이다.예를 들어, 데이터(ex 사진, csv)를 보고 이게 어떤 클래스인지 - 사진 보고 고양이인지, 강아지인지, 소인지, 돼지인지 구분하는 하지만 구분하는 클래스 (동물의 수)가 2개 이상이면 다중분류라고 한다. 로지스틱 회귀란말은 회귀지만 정작 하는건 분류 모델이다.확률이라서 0~1사이의 값을 가진다. 이 때 사용하는 것이 시그모이드 함수(로지스틱 함수 or 로짓)이다.시그모이드 함수특정 값을 넣으면 이런 그래프를 그리게 된다. 결국 0~1사이값. 소프트맥스 함수란이진 분류 = 시그모이드다중 분류 = 소프트맥스다중 분류의 선형방정식에서 z값을 클래스의 개수만큼 가지..
[혼공 머신] 혼자 공부하는 머신러닝 정리하기 - Chapter 02
·
AI/AID
02-1 지도 학습 vs 비지도 학습지도 학습: 문제와 답(훈련 데이터)을 함께 주고 학습시키는 방법 - 훈련 데이터 = 입력(데이터) + 타겟(정답) ex) [[30(특성), 600(특성)], 1(도미)]비지도 학습: 문제(입력 데이터)만 주고 학습시키는 방법 그렇다면 k-최근접 이웃 알고리즘은 어떤 학습인가? = 지도 학습 훈련 세트와 테스트 세트시험문제를 생각하면 편하다시험에 책에 있는 연습문제가 그대로 나온다면 과연 그 학생의 능력을 평가할 수 있을까? - No머신러닝의 경우 준비한 데이터셋을 공부용 / 시험용으로 나누면 된다.그걸 훈련 세트 테스트 세트라고 한다. (나누는 방법에 따라 모델의 정확도가 많이 차이가 나기도 한다.) 추가로 훈련 세트 / 테스트 세트를 터무니없이 나누면 Overfit..
컴공편입생 공부일기
'딥러닝' 태그의 글 목록