< 10大机器学习算法看懂你就是数据科学家_新闻中心_华体育app官网登录|华体会手机版
2024-06-14 新闻中心

  正因为如此,数据科学家会掌握几乎所有的常见算法,并精通其中一门,这样做才能够快速适应新领域的问题。

  今天我们就来聊聊,每一位数据科技家都应该了解的10大机器学习算法。下面是关于普遍机器学习算法和快速资源的风暴之旅,准好了吗?烧脑挑战开始:

  PCA是一种非监督学习,用来理解由向量组成的数据集的全局特性的方法。这里分析了数据点的协方差模型,用来了解哪些维度(大部分)/数据点(有时)更重要,即在它们自身之间具有高方差,但与其他变量时协方差较低。

  这种思考模型大多数都用在考量具有最高特征值的特征向量。此外,SVD本质上也是一种计算有序成分的方法,但你不一定要通过获取数据点的协方差矩阵来实现它。

  还记得你在大学里学的数值分析编码吗?通过拟合直线和曲线得到一个方程。现在,你能够正常的使用它们来适配机器学习中的曲线,用于非常小的低维数据集。对于大数据或多维度的数据集,你可能会需要过度拟合,所以不用费心。普通最小二乘法(OLS)具有封闭形式的解决方案,因此你不需要用复杂的优化技术。

  最小二乘法可能会被数据中的离群点、假维度和噪声干扰。因此,我们应该用约束来减少数据集上拟合的线的方差。正确的方法是拟合一个权重可控的线性回归模型。模型可以用L1正则(LASSO)或L2正则(Ridge Regression)或二者混合(elastic回归)。经过正则处理后对均方损失进行优化。

  使用这些算法拟合具有约束性的回归线,避免从模型中过度拟合和掩藏干扰维度。

  这是所有人都喜欢的非监督学习聚类算法。给定一组矢量形式的数据点,我们大家可以基于它们之间的距离生成数据点群。它是一种期望最大化的算法,反复地移动群组的中心,然后聚集每个群组中心点。此算法所采用的输入是生成群组的数量,并且它将尝试汇集群组的迭代次数。

  逻辑回归是一种约束线性回归,它的结果进行了非线性变换(常用的是sigmoid函数,或者tanh也可以),因此把输出限制成了+/-类的输出(在sigmoid中是1和0)。

  交叉熵损失函数(Cross-Entropy Loss)用梯度下降法(Gradient Descent)优化。对初学者来说,逻辑回归用于分类,而不是回归。你也可以把逻辑回归看作一层神经网络。逻辑回归通过使用梯度下降法或者L-BFGS算法优化。NLP自然语言处理者们通常把它称之为最大熵分类器。

  SVM(支持向量机)是线性模型,类似线性/逻辑回归。不同之处在于它们具有不一样的基于边际损失函数(支持向量的推导是我所看到过的最美的数理成果之一,和特征值的计算可以媲美)。你能够正常的使用诸如B-FGS甚至SGD等优化方法来优化损失函数。

  SVMs的另一个创新是,在特征工程中kernel使用。如果你有很好的领域洞察力,你可以用更好的kernel来代替旧的RBF kernel,并从中受益。

  这些绝大多数都是多层逻辑回归分类器。许多层权重由非线性(SigMOID,TANH,Relu+SULTMax和cool new SELU)分隔。它另一个比较知名的名字是多层感知器。前馈神经网络作为自动编码器,可用于分类和非监督特征学习。

  当今,世界上几乎所有基于视觉的机器学习成果,都已经通过卷积神经网络实现。它们能用于图像分类、目标检测甚至图像分割。

  这是Yann Lecun在上世纪80年代末90年代初的发明,其特征是卷积层充当分层特征提取器。你也可以在文本中使用它们(甚至是图形)。

  RNN通过在聚合状态下,递归的使用同样的权重,来对一个序列建模。前提是这个序列在0..t..T时间点上有输入,并且在时间t有从RNN的t-1步输出的隐含层。

  现在纯的RNN已经很少使用了,取而代之的是代表序列建模最前沿的,与它对应的LSTMs和GRUs。

  RNN(如果有紧密连接和非线性,现在f通常是LSTMs和GRUs的)。在纯的RNN中,LSTM单元取代了紧密连接层。

  CRFS可能是概率图形模型家族(PGMs)中最常用的模型。它们被用于像RNNs这样的序列建模,也可以与RNNs结合使用。它是神经机器翻译系统进入CRFs之前最先进的技术,并且在许多序列中用小的数据集标记任务。

  目前,CRFS仍然比RNNs这样需要大量数据量支撑的算法更有优势。它们也可用于其他结构化预测任务,如图像分割等。CRF对序列中的每一个元素(例如一个句子)进行建模,使得其序列中某个组件的标签相互影响,而不是所有的标签彼此独立。

  假如,我得到一份关于各种水果数据的Excel表格,并需要告知哪些是苹果时,会抛出这么几个问题:

  不过,所有的红色+圆形水果可能不是苹果,所有的苹果都不会只是红色+圆形的。

  但是,这是一个基于我们直觉的决策树。直觉并不能在高维和复杂的数据上工作。我们一定要通过查看标记数据来自动提出这一连串的问题。这就是基于决策树的机器学习技术所要做的。

  早期的版本如CART树,曾经被用于处理简单的数据,但随着数据集慢慢的变大,权衡方差与偏差需要用更好的算法来解决。如今正在使用的两种常用决策树算法是随机森林(在属性的随机子集上建立不同的分类器,并将它们组合成输出)和提升树(它不停地训练上层,用于纠正下层的错误)

  如果你还想知道上述任何一种算法,是怎么样才能做到像Deepmind Go那样击败世界冠军,很遗憾它们做不到。

  在这之前我们讨论的所有10种算法都是模式识别,而不是策略学习。要通过学习策略解决一个多步骤的问题,比如赢得国际象棋游戏或玩雅达利游戏机,我们应该反复训练并从奖惩制度中学习。

  这部分机器学习技术我们叫做深度强化学习。在这一领域的许多成功案例是融合了Convent或LSTM的感知能力产生的结果,这一些列算法称之为时间差异学习。

  这里面包括Q-Learning, SARSA和一些其它变型。这些算法在Bellman’s equations贝尔曼方程中非常智能,它可以通过从环境中获得的奖励训练,从而获取损失函数。

CONTACT US
欢迎随时与我们联系