为了账号安全,请及时绑定邮箱和手机立即绑定

谷歌EfficientNet缩放模型,PyTorch实现出炉,登上GitHub热榜丨Demo可用

郭一璞 发自 凹非寺 
量子位 报道 

谷歌上个月底提出的EfficientNet开源缩放模型,在ImageNet的准确率达到了84.1%,超过Gpipe,已经是当前的state-of-the-art了。

出炉没几天,官方TensorFlow版本在GitHub上就有了1300+星。

现在,哈佛数学系小哥哥Luke Melas-Kyriazi开源了自己的PyTorch实现,包含与训练模型和Demo。

https://img1.sycdn.imooc.com//5cf5c1b60001623705920591.jpg

帖子一出,就收到了众多PyTorch用户的欢迎,在Reddit上拿到了超过170个点赞,不少用户都准备上手尝试了:

https://img1.sycdn.imooc.com//5cf5c1c800012c9a06760145.jpg

等不及想把它merge到torchvision里!

在GitHub上也登上了热榜。

https://img1.sycdn.imooc.com//5cf5c1d50001c88306960137.jpg

甚至,这个PyTorch实现还在隔壁岛国的收到了热烈欢迎。

https://img1.sycdn.imooc.com//5cf5c1e300015a7e06860339.jpg

啥是EfficientNet

EfficientNets是一种新的模型缩放方法,准确率比之前最好的Gpipe提高了0.1%,但是模型更小更快,参数的数量和FLOPS都大大减少,效率提升了10倍。

https://img1.sycdn.imooc.com//5cf5c1f10001141b06820359.jpg

复合缩放(compound scaling)的方法,与缩放神经网络的传统方法不同,用一组固定的缩放系数统一缩放每个维度。

实现复合缩放的首先是执行网格搜索,以在固定资源约束下找到基线网络(baseline model)的不同缩放维度之间的关系,确定每个维度的缩放比例系数。然后将这些系数将应用于基线网络,扩展到所需的目标模型大小或计算力。

模型缩放的有效性也在很大程度上依赖于基线网络。因此,为了进一步提高性能,谷歌还使用AutoML MNAS框架优化了模型的准确率和效率,执行神经架构搜索来开发新的基线网络。

安装使用方式

可以使用pip安装

1pip install efficientnet_pytorch

或者用源代码安装

1git clone https://github.com/lukemelas/EfficientNet-PyTorch
2cd EfficientNet-Pytorch
3pip install -e .

加载EfficientNet

1from efficientnet_pytorch import EfficientNet
2model = EfficientNet.from_name(‘efficientnet-b0’)

加载预训练模型

1from efficientnet_pytorch import EfficientNet
2model = EfficientNet.from_pretrained(‘efficientnet-b0’)

模型具体详情:

https://img1.sycdn.imooc.com//5cf5c20a000185ca06650465.jpg

有Demo

Luke还准备了一份Colab笔记本Demo。

https://img1.sycdn.imooc.com//5cf5c21a0001728f06990351.jpg

示例中,先悄咪咪的扔一只胖达。

https://img1.sycdn.imooc.com//5cf5c22a0001824206890608.jpg

嘿,果然认出来是胖达。

https://img1.sycdn.imooc.com//5cf5c238000145e006880176.jpg

传送门

GitHub
https://github.com/lukemelas/EfficientNet-PyTorch

Google原论文
EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
Mingxing Tan, Quoc V. Le
https://arxiv.org/abs/1905.11946

Colab Demo
https://colab.research.google.com/drive/1Jw28xZ1NJq4Cja4jLe6tJ6_F5lCzElb4

—  —


点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消