请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

看了前几章的疑问

首先感谢老师,通过上一门实战课CNN RNN GAN实战,我学到了很多,算是入门了,老师讲的非常好。

然后是这门课的一些疑问,对于第二章后半部分和第三章前半部分的安排疑问。

假如学员会使用TF1.x,那么学员最想要的可能是如何快速使用TF2.0搭建常用模型。

假如学员没有使用过tf1.x,想直接通过tf2入门,前几章的知识会让他们更混乱,应该由简单到复杂,先讲解宏观使用,再细致深入。

现在前几章的内容更像是一些补充知识。对于快速入门并没有帮助。
反而在纠结constant和variable的区别,ragged tensor和普通tensor的区别,还引入了sklearn超参数搜索,还有tf.function等,这些当然要学,但是可以放到后面几章作为补充。

相比上一个实战课CNN RNN GAN实战,只见树木不见森林,这门课确实不如上一门课有条理。

正在回答 回答被采纳积分+3

1回答

正十七 2019-07-21 16:59:30

同学您好,感谢你细致的反馈。

对于tensorflow这门课来说,细碎的知识点相对来说比较多,不如上一门课中的知识点的连接那么紧密。在上一门课中,课程架构更像是基础+几个相对独立的分项形式。几个分项知识点都基于基础知识点(梯度下降等)但相互来说比较独立。而tensorflow这门课则是分-总的形式,后面的章节会依赖于前面的几个基础的知识点。比如dataset,比如tf.function。

课程也依然考虑了快速入门,即第二章中的keras实战,而课程的大部分网络结构的搭建也是使用keras的。

另外,之所以把超参数搜索放在第二章,其实是因为它跟后续的内容都不太有联系,而独立成章又太小。然后开始这门课的时候有点想专门开一门autoML的课程,所以就迫不及待的讲了这个。

同意你的意见,这门课确实不如上一门课有条理,感觉语言类的课程就是这样,比如之前学C++在学到指针,if else, for/while的时候也不知所云,得到最后学快排,图结构等的时候才知道用途是什么。

再次感谢。

0 回复 有任何疑惑可以回复我~
  • 提问者 CuteHero #1
    感谢老师的解答,希望老师继续推出新课,比如AutoML、NLP等,希望老师推出系统讲解NLP的课程,继续支持。
    回复 有任何疑惑可以回复我~ 2019-07-21 17:07:14
问题已解决,确定采纳
还有疑问,暂不采纳
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号