代码环境
机器配置
ryzen1700? ? ? ? ? ? ? ? | 8C16T? ? ? ? ?@3.7Mhz | 解压加载数据集模型速度偏慢,5800X已经在路上了准备换掉,顺便安排水冷 ? | 海盗船马甲条 | 3200Mhz? ? ? 8GX2 | 勉强够用,占用在 10G上下? | RTX 1660super? ? ? ? | 6GRam? ? ? ? ?7.5算力 | 经常性OOM,可能不是太够用 |
????????毕竟fastai提出的是no? need? expensive? computer,其实配置太差是跑不动fastai的,可能人家指的是用云服务器吧。本机搞起来还是比较吃力的,但是看了一下课程本身推荐的云服务器免费的基本上也就2C4T的水平,体感还是需要一台配置中等偏上能打的机器才能学的比较轻松。
OOM(Out?of?Memory)问题
? ? ? ? 6Gram跑稍微大点的模型,比如Resnet50是直接跑不动然后OOM的,只能调整bz到32或者to_fp16才能跑,看到别人提到pytorch的混合精度,准备以后尝试是不是可以解决。
? ? ? ? 代码整体偏乱,有点想到哪儿教哪儿的感觉,这就代表着一个jpy中有多个模型去跑,如果连贯跑下来很容易OOM,只能跑完一小段代码手动重启内核,再找完整的一小段跑下来,一定要包括import和DatasetLoader之类的前置代码一起跑。不过这应该一部分是jupyter的问题。?
课程感受
内容
????????内容基本上的概括就四个字吧:广而不深,整个课程去除一两个小时的没什么卵用的职业道德教育,整体也就十四个小时左右的课程,一个星期学完很轻松,覆盖了cv,nlp,rs的主要领域但是每个领域基本上就是一两个task演示一下。原理倒是也会讲一点,比如协同过滤或者rnn之类的,但是基本上就是稍微带着看一下源码。这里强烈推荐看完吴大师的deeplearning.ai专项课再来,没有对比就没有伤害,算法方面讲的确实有点敷衍,不过和吴大师大几十个小时的课的体量也没法比就是了。
课程质量
????????主讲语速很慢且经常卡壳,应该是没有怎么背过课的,1.5倍速差不多可以接受。
? ? ? ? 基本上是一套模板(迁移学习)通关,主攻模板怎么套,很少讲为什么这么套,比方说rnn的正则化为什么α=1,β=2。
总体评价
优点:
- 课程耗时短。
- 上手容易,几行代码一个原型机就有了。
- 数据集和预训练模型直接拿来很方便,即使以后不用这个做开发下数据集和模型也是很方便的工具。
不足:
-
课程逻辑有点混乱,不像其他课程那么系统。 -
小部分数据集不太方便,比如说用到BingAPI但是现在注册是有免费12个月,但是需要绑定visa信用卡,再比如用了kaggle的数据也是需要去弄帐号什么的。 -
核心是迁移学习但是能用哪些迁移学习也没有介绍一下或者给个清单,Res34和Res50倒来倒去的,看来想用其他模型自能自行研究了。 -
没有GAN和GCN的内容,作为一个2020的课程还是期待能讲一讲这方面的。
? ? ? ? 总的来说,还是很值得一学的,耗费的时间很少,入门的速度很快,做原型成本很低,有点小缺点瑕不掩瑜,比啃torch或者tensorflow的天书还是容易的,先学fastai再去pytorch应该也会相应的轻松不少,希望fastai越做越好。?
|