zero_grad() backward() step() linear() Q2 : 다음 중에서 시그모이드(sigmoid)활성화함수의 설명이 아닌 것은? 입력값이 0이면 출력은 0.5이다 미분을 할 수 있다 음수의 입력값에 대해 음수 값이 출력된다. 근사치 값은 2.71828이다 Q3 : 다음 중 optimzer.zero_grad()를 사용하는 목적은? 직전에 계산된 gradient가 누적되는 것을 방지하기 위해 데이터의 정규화를 위해 활성화 함수의 미분이 가능하도록 하기 위해 오차 역전파의 빠른 실행을 위해 Q4 : 다음 중 MLP 구현을 위해 필요한 Pytorch의 layer는? nn.linear nn.Conv2d nn.RNN nn.Transformer Q5 : 다음 중 nn.Module에 대한 설명이 아닌 것은? 파라미터값들을 관리한다 모델 상태를 저장하거나 로드할 수있다 Forward 함수를 구현해야 한다 Backward함수를 구현해야 한다 채점
입력값이 0이면 출력은 0.5이다 미분을 할 수 있다 음수의 입력값에 대해 음수 값이 출력된다. 근사치 값은 2.71828이다 Q3 : 다음 중 optimzer.zero_grad()를 사용하는 목적은? 직전에 계산된 gradient가 누적되는 것을 방지하기 위해 데이터의 정규화를 위해 활성화 함수의 미분이 가능하도록 하기 위해 오차 역전파의 빠른 실행을 위해 Q4 : 다음 중 MLP 구현을 위해 필요한 Pytorch의 layer는? nn.linear nn.Conv2d nn.RNN nn.Transformer Q5 : 다음 중 nn.Module에 대한 설명이 아닌 것은? 파라미터값들을 관리한다 모델 상태를 저장하거나 로드할 수있다 Forward 함수를 구현해야 한다 Backward함수를 구현해야 한다 채점
직전에 계산된 gradient가 누적되는 것을 방지하기 위해 데이터의 정규화를 위해 활성화 함수의 미분이 가능하도록 하기 위해 오차 역전파의 빠른 실행을 위해 Q4 : 다음 중 MLP 구현을 위해 필요한 Pytorch의 layer는? nn.linear nn.Conv2d nn.RNN nn.Transformer Q5 : 다음 중 nn.Module에 대한 설명이 아닌 것은? 파라미터값들을 관리한다 모델 상태를 저장하거나 로드할 수있다 Forward 함수를 구현해야 한다 Backward함수를 구현해야 한다 채점
nn.linear nn.Conv2d nn.RNN nn.Transformer Q5 : 다음 중 nn.Module에 대한 설명이 아닌 것은? 파라미터값들을 관리한다 모델 상태를 저장하거나 로드할 수있다 Forward 함수를 구현해야 한다 Backward함수를 구현해야 한다 채점