【李宏毅机器学习2021】本系列是针对datawhale《李宏毅机器学习-2022 10月》的学习笔记。本次对本期学习进行总结~
目录
课程题目及连接 | 学习内容简介 | 学习时间 |
Task01 机器学习介绍 | 通过学习视频了解到李老师对机器学习课程的整体安排,介绍了每个章节的侧重点,从回归开始,由有监督到半监督,无监督。以及后续的mata learning。整体介绍目前深度学习的学习大纲。讲解中也穿插了有多有趣的例子,容易接受同时也充满乐趣。 | 2022/10/10-2022/10/11 |
Task02 回归 | 本节通过视频学习到回归任务的提出,三个要素,及如何优化。李老师通过层层递进,提出问题解决问题的方式不断打磨方法,从中介绍回归任务的始末,引出深度学习及网络加深伴随的过拟合问题。 | 2022/10/11-2022/10/13 |
Task03 误差和梯度下降 | 本次是对误差和梯度下降的学习总结。本节通过视频学习到对模型调优中面临的系列问题,李宏毅老师列出常见问题树状图,从train的loss开始,到test loss问题,引出训练中的问题并讲解原因,介绍改进方法。 | 2022/10/13- 2022/10/15 |
Task04 深度学习介绍和反向传播机制 | 本次是对深度学习介绍和反向传播机制的学习总结。本节针对上节课内容,对batch、梯度下降方法进行讲解。通过本次学习加深了对optimization方法的理解,同时明白对深度学习的优化方向和解决办法。 | 2022/10/15- 2022/10/17 |
Task05 网络设计的技巧 | 本次是对深度学习中卷积神经网络的总结。本节课主要讲解卷积神经网络中的感受野、滤波器、下采样的重要组成部分。网络设计技巧在之前内容已经介绍过,本次就打卡卷积神经网络啦。 | 2022/10/17- 2022/10/20 |
Task06 self-attention算法 | 本次是对深度学习中self-attention算法的学习总结。本来这节课是讲cnn,上节课cnn学过了笔记也做过了,就快进到self-attention吧~本节课主要讲解NLP中self-attention算法的生成原理,针对序列向量的预测思路及优势特点。同时在基本的self-attention介绍相关升级算法。最后对self-attention在声音信息、cv、图数据中的引用。 | 2022/10/20- 2022/10/23 |
Task07 总结 | 对整体学习的总结。 | 2022/10/23- 2022/10/24 |
通过本期学习了解到深度学习的基础知识,从神经网络的起源相关推导到网络搭建,优化。一步步引导学习深度学习知识框架。通过每次打卡巩固学习知识。本次课程中也有很多新知识,学的东西很新很实用。感谢datawhale提供平台,又一次刷新学习记录~
本次学习中对视频内容进行学习并做相关笔记,但缺乏对知识的拓展学习。学习面局限在视频中,后面会结合花书拓展知识面。在学习过程中时间安排不合理,总是压哨打卡~哈哈哈 一定要改掉deadline是生产力的毛病呢。还有就是学习中不自助写试验代码,= =没有躬身行动。后面会补上实验的学习。
本次打卡虽然是dw学习的最后一节打卡,但是我对李宏毅老师机器学习这门课的学习步伐还没有停歇。将以两日一更的速度冲后面的学习内容啦。
本次在datawhale的学习活动中担任小队的队长,本次学习小队初始有10人,最后坚持下来8人。为坚持下来的小伙伴鼓掌~~
作为队长坚持监督每个小伙伴对学习任务学习并打卡。不过作为队长也有改进的地方,对于学习较为困难的同学应该提前提醒学习,并谈心了解学习情况。也应积极询问队员的学习进度,及时对不懂得地方讲解,让每个小伙伴有信心冲下去。写在这里敦促自己,后面当队长要把这些都做到。
本节课在人工智能整体知识来说是重要基础,相关学习内容概念复杂。建议开始代码课程辅助学习效果更佳,毕竟talk is cheap ,show me your code.李老师这门课有配作业的,可以放进去就最好啦~
好啦~总结就到这,撒花~
感谢datawhale和爱学习的队每个小伙伴~