이 글은 필자가 "밑바닥부터 시작하는 딥러닝 1"을 보고 헷갈리는 부분이나 다시 보면 좋을만한 부분들을 위주로 정리한 글입니다.
- CNN: (Conv - Relu) - Pooling 거침
- Pooling layer는 크기만 줄어들뿐
- 깊게 만들기 위해서는 Conv layer가 필수적이다.
- 1x1 Conv vs. 3x3 Conv
- (1x1 Conv): 주로 채널 개수를 줄이기 위해 사용
- (3x3 Conv, stride =1)
- 합성곱 계층과 풀링 계층으로 구성되는 기본적인 CNN
- Receptive field를 통한 (5x5) Conv보다 2개의 (3x3) Conv가 더 효율적임을 이야기
- (Max pooling) - N개의 3x3 Convolution 을 거친후 FC
- Max pooling으로 이미지 크기가 줄어든다.
- 3x3의 작은 필터를 사용한 합성곱 계층을 연속으로 거친다.
- 1x1 Conv layer로 채널 개수 제한
- Inception 모듈: 앞 계층의 다른 필터 결과들을 모두 합치는 구조
- (1x1 Conv 결과) + (3x3 Conv 결과) + (5x5 Conv 결과) + (3x3 Max pooling) 결과를 결합
- Skip connection: 입력 데이터를 합성곱 계층을 건너뛰어 출력에 바로 더하는 구조
단축키
내 블로그
내 블로그 - 관리자 홈 전환 |
Q
Q
|
새 글 쓰기 |
W
W
|
블로그 게시글
글 수정 (권한 있는 경우) |
E
E
|
댓글 영역으로 이동 |
C
C
|
모든 영역
이 페이지의 URL 복사 |
S
S
|
맨 위로 이동 |
T
T
|
티스토리 홈 이동 |
H
H
|
단축키 안내 |
Shift + /
⇧ + /
|
* 단축키는 한글/영문 대소문자로 이용 가능하며, 티스토리 기본 도메인에서만 동작합니다.