关于机器学习范畴的初学者来说,这会是很好的入门课程。现在,课程的笔记、PPT 和视频正在连续发布中。
2020 年就这么悄然无声地走完了,想必大多数人,尤其是在校学生仅有的感觉便是:「又是毫无学术发展的一年。」
近来,威斯康辛大学麦迪逊分校助理教授 Sebastian Raschka 在推特上宣告了威斯康辛大学《机器学习导论》2020 秋季课程的结束:「教授两个班级和 230 个学生是十分好的体会,对那些感兴趣的人,我整理了一页记载以供参阅。」
Sebastian Raschka 是威斯康星大学麦迪逊分校的统计学助理教授,致力于机器学习和深度学习研讨。他最近的一些研讨办法已应用于生物辨认范畴,处理面部图画隐私问题,其他的研讨要点包含开发与机器学习中的模型评价、对立进犯和 AutoML 有关办法和应用程序。他也是《Python 机器学习》一书的作者,曾被科技博客 Analytics Vidhya 评为 GitHub 上具影响力的数据科学家之一。
对想要学习这门课程的学生,Sebastian Raschka 教授的主张是:你至少要了解根本编程常识并完成了编程入门课程。
1.3 机器学习的类别:评论了机器学习的三大类,监督学习、无监督学习和强化学习
2.2 最近邻决议计划鸿沟:包含 1 - 最近邻决议计划鸿沟背面的概念,此外还列出了一些常见的间隔衡量
2.3 K - 最近邻算法:将 1 - 最近邻概念扩展到 k - 最近邻算法,进行分类和回归
2.5 K - 最近邻的提高:总结一些提高 K - 最近邻核算功能和猜测功率的常见技巧
3.1 Python 概述:这节课将评论 Python 的用法,进行 C 和 Python 的快速演示(或许并不是很有吸引力)
6.5 基尼系数 & 熵与误分类差错:阐释在 CART 决议计划树的信息增益方程式中,为何需求运用熵(或基尼)替代误分类差错作为杂质衡量
6.6 改善和处理过拟合:将决议计划树的一些问题(例如过拟合)交融在一起并评论改善办法,例如增益比、预剪枝和后剪枝
6.7 代码示例:怎么样去运用 scikit-learn 练习和可视化决议计划树的快速演示
7.2 绝对多数投票法:评论最根本的模型集成之一「绝对多数投票」,经过示例解说为什么它比运用单个分类器更好
7.5 梯度提高:在 AdaBoost 运用权重作为练习示例来提高下一轮树的情况下,梯度提高运用丢失的梯度来核算残差以习惯序列中的下一棵树,视频中说到的论文地址:
7.6 随机森林:解说随机森林及其与套袋法之间的联系,以及为什么随机森林在实践中的作用优于套袋法
在后续行将更新的课程中,Sebastian Raschka 将对「降维和无监督学习」、「贝叶斯学习」内容进一步介绍,课程材料也会更新,包含讲座视频、PPT 链接等。
全球顶尖AI专家齐聚主论坛,解读智能化转型的技能之道。4场技能工作坊共享才智城市、智能出行、华为开源生态与边际智能引擎等线场黑客松等你来战。
原标题:《威斯康辛大学《机器学习导论》2020秋季课程结束,课件、视频资源已敞开》