P1 1. 1 机器学习和深度学习的介绍 13:02 |
P3 3. 3 感知机和多层神经网路的介绍 21:10 |
P5 5. 1Pytorch的安装方法 03:55 |
P7 7. 3Pytorch的入门操作(二) 20:23 |
P9 9. 5Pytorch的入门操作(三) 13:23 |
P11 11. 2 梯度下降的过程 27:24 |
P13 13. 4 手动实现线性回归 20:19 |
P15 15. 6 知识点回归 13:23 |
P17 17. 5 在GPU上执行程序 15:17 |
P19 19. 1 数据集类的使用 07:57 |
P21 21. 3Pytorch中自带数据的使用介绍 06:10 |
P23 23. 5 torchvision中transforms方法的使用 19:09 |
P25 25. 2 损失函数的学习 10:56 |
P27 27. 4 模型的评估 24:49 |
P29 29. 6 word embedding的理解 08:03 |
P31 31. 8 小结 09:53 |
P33 33. 2 collate fn的实现 07:36 |
P35 35. 4 ws的保存 16:55 |
P37 37. 1 RNN结果的介绍 14:59 |
P39 39. 3 LSTM的GRU的学习 32:21 |
P41 41. 5 LSTM api的介绍 44:52 |
P43 43. 7 文本情感分类模型的修改 42:43 |
P45 45. 9Pytorch的序列化容器 10:05 |
P47 47. 2 聊天机器人的介绍 25:19 |
P49 49. 4 项目流程介绍 12:26 |
P51 51. 6 词典的准备 18:05 |
P53 53. 8 相似问题的准备 18:06 |
P55 55. 1 文本分类的介绍 10:24 |
P57 57. 3 分类语料的准备 32:06 |
P59 59. 5 模型的评估 10:47 |
P61 61. 7 fasttext原理介绍 16:56 |
P63 63. 1 .复习 04:43 |
P65 65. 3 哈夫曼树和哈夫曼编码 26:09 |
P67 67. 5 seq2seq原理的认识 12:18 |
P69 69. 7 案例数据集的准备 28:37 |
P71 71. 9 编码器的完成 31:22 |
P73 73. 11 解码器的流程 24:19 |
P75 75. 13 模型的训练(二) 25:50 |
P77 77. 15 复习 33:51 |
P79 79. 17 seq2seq模型小结 11:33 |
P81 81. 19 闲聊机器人准备语料 51:06 |
P83 83. 21 dataset的准备 18:35 |
P85 85. 1 attention的介绍 21:24 |
P87 87. 3 attention weight的计算的结果 43:03 |
P89 89. 5 复习 56:09 |
P91 91. 7 解码的过程中使用attention 13:59 |
P93 93. 1 beam search的介绍 26:12 |
P95 95. 3 模型的优化方法 10:44 |
P97 97. 1 问答机器人的介绍 09:31 |
P99 99. 3 使用tfidf实现召回 57:50 |
P101 101. 5 BM25算法的介绍 13:14 |
P103 103. 7 复习 1:04:31 |
P105 105. 9 排序介绍 36:18 |
P107 107. 11 模型的搭建(一) 26:37 |
P109 109. 13 损失函数的模型的训练 30:21 |
P111 111. 15 封装的介绍 20:13 |