[파이토치로 시작하는 딥러닝 기초]10.1_Convolutional Neural Network
·
AI Study/DL_Basic
10. Convolution Neural Network 10.1 Convolution Convolution? Neuron과 Convolution Pooling Convolution이란? 이미지위에서 stride값 만큼 filter(kernel)을 이동시키면서 겹쳐지는 부분의 각 원소의 값을 곱해서 모두 더한 값을 출력으로 하는 연산 Stride and Padding stride : filter를 한번에 얼마나 이동할 것인가 padding : zero-padding (input 이미지의 상하좌우에 0의 띠가 둘러진다) Python nn.Conv2d 입력의 형태 input type: torch.Tensor 타입 input shape : (N * C * H * W) => (batch_size, channel,..
[파이토치로 시작하는 딥러닝 기초]06_Softmax Classification
·
AI Study/DL_Basic
Softmax Classification softmax Cross Entropy Low-level Implementation High-level Implementation Traing Example Discrete Probability Distribution(이산확률분포) Discrete Probability Distribution이란, 이산적인 확률 분포를 이른다. ex) 주사위를 돌려서 나오는 숫자의 값에 대한 확률 분포 이산 값에 대한 확률이 정확하게 나오며, 연속형 확률분포와 달리 x 값이 정수값으로 떨어져 있다. Softmax Convert numbers to probabilitis with softmax $${P(class = i) = \frac{e^i}{\sum e^i}}$$ pytorch ..
[파이토치로 시작하는 딥러닝 기초]04.01_Multivariable_Linear_regression
·
AI Study/DL_Basic
4. Multivariable Linear regression(다항회귀분석) Simple Linear REgression 복습 Multivariate Linear Regression 이론 Naive Data Representation Matrix Data Representation Multivariate Linear Regression nn.Module 소개 F.mse_loss 소개 Simple Linear Regrssion? 하나의 정보로부터 하나의 결론을 짓는 모델 ${H(x) = Wx + b}$ 그러나 우리가 더 다양한 정보를 가지고 다양한 예측을 하기위해서는 단항선형회귀분석으로는 어렵다! Multivariate Linear Regression 복수의 정보가 존재할 떄 하나의 추측값을 계산하는 것 ..
[파이토치로 시작하는 딥러닝 기초]03_Deeper Look at Gradient Descent
·
AI Study/DL_Basic
Deeper Look at Gradient Descent Hypothesis function Cost function 이해 Gradient descent 이론 Gradient descent 구현 Gradient descent 구현(nn.optiom) Hypothesis (Linear Regression) Hypothesis function은 인공신경망의 구조를 나타내는데 주어진 input에 대해 어떤 output을 나타내는지 𝐻(𝑥)H(x)로 표현한다. $${H(x) = Wx + b}$$ ${W}$ : Weight ${b}$ : bias What is the best model? Cost function 모델 예측값이 실제 데이터와 얼마나 다른지 나타내는 값 잘 학습된 모델일수록 낮은 cost를 가진다...