算法原理

「算法原理」相关文章列表

推荐系统中的排序学习

排序学习(Learning to Rank,LTR),也称机器排序学习(Machine-learned Ranking,MLR) ,就是使用机器学习的技术解决排序问题。自从机器学习的思想逐步渗透到信息检索等领域之后,如何利用机器学习来提升信息检索的性能水平变成了近些年来非常热门的研究话题,因此产生了各类基于机器学习的排序算法,也带来了搜索引擎技术的成熟和发展...

基于矩阵分解的推荐算法

简介 推荐领域的人一般都会听说过十年前 Netflix Prize 的那场比赛,这一年可以说是推荐算法的春天,从比赛中诞生了众多推荐算法,而矩阵分解就是其中非常著名的一个。矩阵分解(Matrix Factorization,FM)是协同过滤的一个分支算法,在推荐领域具有崇高的地位,因为它同时兼具了协同过滤、隐语义以及机器学习的特性,再加上矩阵分解易于实现和...

基于协同过滤的推荐算法

简介 协同过滤(Collaborative filtering,CF)与基于内容的推荐算法一样,也是一个非常古老的推荐算法。但是直至今日,协同过滤依然是应用最广泛的推荐算法,在推荐领域占有极其重要的地位,甚至 “协同过滤” 一度成为推荐系统的代名词。按维基百科的说法,协同过滤有广义和狭义两种定义,广义协同过滤是指采用某项技术,对多源数据(如不同的代理、视点...

梯度下降学习率的设定策略

学习率的重要性 如果把梯度下降算法比作机器学习中的一把 “神兵利器”,那么学习率就是梯度下降算法这把武器对应的 “内功心法”,只有调好学习率这个超参数,才能让梯度下降算法更好地运作,让模型产生更好的效果。 在《梯度下降算法总结》一文中,我们已经谈到过在实际应用中梯度下降学习算法可能会遇到局部极小值和鞍点两大挑战。那么,什么样的梯度下降才算是 “合格” 的...

梯度下降算法总结

概述 梯度下降是应用非常广泛的优化算法,也是目前最常见的优化神经网络的方法之一。从简单的线性回归到当下火热的深度学习,处处可见梯度下降的身影,由此可见梯度下降的重要性。现在很多知名的深度学习库都已经包含了各种梯度下降优化算法的实现(如 Tensorflow,Cafe,Keras),但依然很有必要去了解梯度下降的底层逻辑,熟知梯度下降不同变种之间的区别,并能...

机器学习中的各种熵

熵 (entropy) 这一词最初来源于热力学。1948 年,克劳德·爱尔伍德·香农将热力学中的熵引入信息论,以此来解决对信息的量化度量问题。在机器学习中,“熵” 是一个非常重要的基础内容,在 Logistic 回归、决策树、深度学习计算机视觉、自然语言处理等很多地方都有涉及。本文将详细介绍各种各样的 “熵”。 信息量(amount of informat...

集成学习

集成学习 集成学习(Ensemble Learning)可以说是机器学习兵器谱上排名第一的 “屠龙刀”,是一个非常万能且有效的强大工具。这把 “屠龙刀” 在各大机器学习竞赛中被广泛使用,曾多次斩下桂冠。集成学习是用多个弱学习器构成一个强学习器,其哲学思想是 “三个臭皮匠赛过诸葛亮”,有时也被称为多分类器系统(multi-classifier system)...

决策树

决策树介绍 决策树(Decision Tree,DT)是模式识别中进行分类的一种有效方法,利用树分类器可以把一个复杂的多类别分类问题转化为若干个简单分类问题来解决。它不是企图用一个决策规则把多个类别的样本一次分开,而是采用分级的方法,使分类问题逐步得到解决。总结起来,决策树就是一个将输入空间逐步分割的过程,它把输入空间分为一组互不相交的区域,其中某个类别的...