직전에 계산된 gradient가 누적되는 것을 방지하기 위해 데이터의 정규화를 위해 활성화 함수의 미분이 가능하도록 하기 위해 오차 역전파의 빠른 실행을 위해 Q2 : 다음 중 MLP 구현을 위해 필요한 Pytorch의 layer는? nn.linear nn.Conv2d nn.RNN nn.Transformer Q3 : 다음 중에서 시그모이드(sigmoid)활성화함수의 설명이 아닌 것은? 입력값이 0이면 출력은 0.5이다 미분을 할 수 있다 음수의 입력값에 대해 음수 값이 출력된다. 근사치 값은 2.71828이다 Q4 : 다음 중 nn.Module에 대한 설명이 아닌 것은? 파라미터값들을 관리한다 모델 상태를 저장하거나 로드할 수있다 Forward 함수를 구현해야 한다 Backward함수를 구현해야 한다 Q5 : 다음 중 nn.Module를 상속받아 생성한 모델의 가중치들을 업데이트하기 위해 필요한 pytorch의 함수가 아닌 것은? zero_grad() backward() step() linear() 채점
nn.linear nn.Conv2d nn.RNN nn.Transformer Q3 : 다음 중에서 시그모이드(sigmoid)활성화함수의 설명이 아닌 것은? 입력값이 0이면 출력은 0.5이다 미분을 할 수 있다 음수의 입력값에 대해 음수 값이 출력된다. 근사치 값은 2.71828이다 Q4 : 다음 중 nn.Module에 대한 설명이 아닌 것은? 파라미터값들을 관리한다 모델 상태를 저장하거나 로드할 수있다 Forward 함수를 구현해야 한다 Backward함수를 구현해야 한다 Q5 : 다음 중 nn.Module를 상속받아 생성한 모델의 가중치들을 업데이트하기 위해 필요한 pytorch의 함수가 아닌 것은? zero_grad() backward() step() linear() 채점
입력값이 0이면 출력은 0.5이다 미분을 할 수 있다 음수의 입력값에 대해 음수 값이 출력된다. 근사치 값은 2.71828이다 Q4 : 다음 중 nn.Module에 대한 설명이 아닌 것은? 파라미터값들을 관리한다 모델 상태를 저장하거나 로드할 수있다 Forward 함수를 구현해야 한다 Backward함수를 구현해야 한다 Q5 : 다음 중 nn.Module를 상속받아 생성한 모델의 가중치들을 업데이트하기 위해 필요한 pytorch의 함수가 아닌 것은? zero_grad() backward() step() linear() 채점
파라미터값들을 관리한다 모델 상태를 저장하거나 로드할 수있다 Forward 함수를 구현해야 한다 Backward함수를 구현해야 한다 Q5 : 다음 중 nn.Module를 상속받아 생성한 모델의 가중치들을 업데이트하기 위해 필요한 pytorch의 함수가 아닌 것은? zero_grad() backward() step() linear() 채점