optimizer.step()
использует вычисленные в loss.backward()
градиенты?\n",
"\n",
"loss.backward()
вычисляет градиенты функции потерь по параметрам модели и сохраняет их в .grad
соответствующих тензоров, таких как model[0].weight.grad
, model[0].bias.grad
и т. д.
optimizer.step()
затем обновляет параметры модели, используя сохраненные градиенты и заданные гиперпараметры (например, скорость обучения) в соответствии с выбранным методом оптимизации.