推荐使用 TensorFlow Estimator API 来编写分布式训练代码
"单机和分布式代码一致,且不需要考虑底层的硬件设施"
这句话是不是有问题,单机训练中,需要自己实现多GPU训练,直接使用单GPU的代码是不行的把?
此外,tensorflow分布式训练中,肯定也是要在代码中添加部分分布式API的,多机多GPU移植的代价也不算低,很多接口需要弄清楚是啥意思。
一文说清楚Tensorflow分布式训练必备知识Note: 原文发表于我的知乎专栏:算法工程师的自我修养,欢迎关注! Methods that scale with computation are the future o...