본문 바로가기

부스트캠프 AI Tech/Pytorch

[08] backward 과정 이해하기

for epoch in range(epochs):
……
# Clear gradient buffers because we don't want any gradient from previous epoch
optimizer.zero_grad()
# get output from the model, given the inputs
outputs = model(inputs)
# get loss for the predicted output
loss = criterion(outputs, labels)
# get gradients w.r.t to parameters
loss.backward()
# update parameters
optimizer.step()
………
  1.  optimizer.zero_grad() - gradient 초기화 -> 다음 epoch 영향 안 미치기 위해
  2.  model(input) -> 모델 돌림
  3.  loss = criterion(outpus, labels) -> 로스 계산
  4.  loss.bacward() -> gradients parameter 얻음
  5.  optimizer.step() -> 파라미터 업데이트

'부스트캠프 AI Tech > Pytorch' 카테고리의 다른 글

[10] Dataloader 의 기본요소  (0) 2022.01.22
[09] Dataset  (0) 2022.01.21
[07] apply  (0) 2022.01.20
[06] Pytorch의 hook  (0) 2022.01.20
[05] named_children, named_modules.  (0) 2022.01.19