Сохранение отслеживаемых объектов в TensorFlow через Checkpoint
Видимо, не совсем понимаю концепцию, как должен работать train.Checkpoint() в TF.
В документации сказано, что Checkpoint служит для сохранения отслеживаемых объектов. Итак, tf.Variables у нас именно такой.
var = tf.Variable([False] * 8, name="var")
saver = tf.train.Checkpoint()
save_path = saver.save("checkpoint")
var[0].assign(True)
saver.restore(save_path)
print(var)
Т.е. у меня есть отслеживаемая переменная var. Это вектор из булевых значений. Я создаю чекпоинт, сохраняю состояние. Далее изменяю переменную, загружаю сохраненное состояние, но переменная остается прежней, с изменениями. Вероятно, очень глупый вопрос, но пытаюсь понять, как это должно работать.