TF模型部署的特点
- 可扩展性、稳定性、可靠性(能经历大规模多应用部署的考验)好
- 可扩展性、稳定性、可靠性(能经历大规模多应用部署的考验)好
- TF serving高性能,开源的机器学习服务系统,专为部署设计的
- TF serving可以结合docker一起使用,部署方便
- 提供了REST和GRPC的接口
- 支持regression,classify,predict 的api
- serving的轻量化可以很好的解决服务问题
- TF采用分布式的架构,对云的处理适应能力好,适合大规模项目的部署
- TF有Js的版本,支持的浏览器端训练推理
- Tensorboard的可视化工具便于查看数据
- 各个平台上都能跑,win、Linux、MacOS、Android、iOS都能方便的使用
- 可以用python接口,也有高性能的C++接口
- 支持离线多机多cpu、gpu的分布式训练,还有在线提供serving的一整套解决方案,快速落地项目,极大减少工程成本
点击查看更多内容
为 TA 点赞
评论
共同学习,写下你的评论
评论加载中...
作者其他优质文章
正在加载中
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦