[파이토치로 시작하는 딥러닝 기초]03_Deeper Look at Gradient Descent
·
AI Study/DL_Basic
Deeper Look at Gradient Descent Hypothesis function Cost function 이해 Gradient descent 이론 Gradient descent 구현 Gradient descent 구현(nn.optiom) Hypothesis (Linear Regression) Hypothesis function은 인공신경망의 구조를 나타내는데 주어진 input에 대해 어떤 output을 나타내는지 𝐻(𝑥)H(x)로 표현한다. $${H(x) = Wx + b}$$ ${W}$ : Weight ${b}$ : bias What is the best model? Cost function 모델 예측값이 실제 데이터와 얼마나 다른지 나타내는 값 잘 학습된 모델일수록 낮은 cost를 가진다...
[파이토치로 시작하는 딥러닝 기초]02_Linear Regression
·
AI Study/DL_Basic
Linear Regression Data definition (학습할 데이터 알아보기) Hypothesis (가설검정 함수 구현하기) Compute loss (컴퓨팅 loss구하기) Gradient descent Data Definition 공부한 시간과 점수의 상관관계가 얼마나 있는가? 내가 4시간 공부하면 성적을 얼마나 받을까? train set : 학습할 때 사용되는 데이터 set test set : 학습이 끝난 후 이 model이 얼마나 잘 작동하는지 판별하기 위한 data set 실습 data는 torch.tensor! 입력 : x_train 출력 : y_train 입철력은 x, y로 구분 import torch x_train = torch.FloatTensor([[1], [2], [3]]) y..
[파이토치로 시작하는 딥러닝 기초]01_Tensor Manipulation(텐서 조작)
·
AI Study/DL_Basic
Tensor Manipulation(텐서 조작)¶ Pytorch Basic Tensor Manipulation¶ Vector, Matrix and Tensor Numpy Review Pytorch Tensor Allocation Matrix Multiplication Other Basic Ops Vector, Matrix and Tensor¶ 스칼라(Scaler) : 차원이 없는 값(0차원) 벡터(Vector) : 1차원으로 이루어져있는 값 행렬(Matrix) : 2차원으로 이루어져 있는 값 텐서(Tensor) : 3차원 이상으로 이루어져 있는 값 Pytorch Tensor Shape Convention¶ 텐서의 크기 표현하는 방법 2D Tensor (Typical Simple Setting) |t| =..