协同过滤的实现
我们弄清楚协同过滤是什么之后,再来讨论下协同过滤是怎么实现的。
协同过滤主要有三个步骤,首先是获取用户群体的喜好记录,然后找到与特定用户相类似的其他用户,最后得出推荐预测。下面详细说明一下每个步骤。
-
获取用户群体的喜好记录
获取用户的喜好数据是协同过滤算法的第一步,也是最基础的一步。推荐系统的输入之一就是用户的喜好信息,所以不管你后面的推荐算法做得有多好,如果第一步没做好,那么最终得出的推荐效果也会很差。那么,系统是怎么有效获得用户的喜好信息的呢?其实,用户的所有行为都会被系统所记录,所以系统可以从用户的行为信息中抽取出用户的喜好信息。典型的用户行为分为显式和隐式两类,显式的用户行为比如有对内容的评分,投票和转发等,而隐式的用户行为比如有在某个页面停留的时间,对某些物品的点击查看和购买行为等等。
推荐系统收集完用户的行为信息后,还需要对这大量的数据信息进行数据清洗,其中最关键的两步是减噪和归一化。减噪的目的是为了过滤掉用户行为中的一些失误操作以及数据中的一些噪声,从而使得系统分析可以更加的准确。而归一化的原因在于,在度量用户对内容喜好程度时,需要对不同类型的用户数据进行统计。而有的数据取值范围很大,有的却很小,如果不进行归一化处理的话,这些数据将不具有可比性,因为大数值区间的数据属性权重会变得很大,而小数值区间的数据属性权重就会变得微乎其微。所以,我们应该将这些数据都限制在同一个区间内,但又不能破坏不同数据之间的相对关系,最简单的归一化操作就是将所有数据都进行适当的缩放,使得它们的取值范围为[0,1]。
进行完以上的预处理操作后,系统可以选择不同的用户行为分析方法,最终得到一个反映用户对不同内容喜好程度的二维相似矩阵,如下图所示:
矩阵里的值表示的是用户对不同内容的喜好程度,取值范围为归一化后的[0,1]区间,类型是浮点数值。
寻找与特定用户相类似的其他用户
推荐系统收集到用户的喜好记录后,会根据这些用户信息来计算每两个用户之间喜好的相似程度,然后对指定用户进行推荐。用于推荐的协同过滤算法具体分为三类:基于用户的协同过滤,基于内容项的协同过滤和基于模型的协同过滤,具体的区别会在下一节作出详细介绍。不管是哪类的协同过滤算法,都涉及到计算用户或者物品间的相似度,而计算相似度有几种比较经典的方法,下面给出具体介绍。
我们把上面得到的相似矩阵的每一行抽取出来,作为每个对应用户的行向量,而该行向量其实就对应着该用户对所有内容的喜好程度。接着我们计算每两个行向量之间的相似度,其实就是在计算对应用户间的相似度评价值。当然,也可以把用户-内容喜好的二维矩阵的每一列抽取出来,对应所有用户对该内容的喜好程度,然后再计算内容之间的相似度。常用的相似度计算方法有欧几里得距离,余弦相似度以及皮尔森相关系数。
欧几里得距离(Euclidean Distance),也称欧式距离,是最常用,也是最简单的计算两个点之间距离的方法,它的数学定义如下:
假设在n维空间里,存在两点A和B,它们的坐标分别为:A=(x1,x2,...,xn ) ,B=(y1,y2,...,yn )。则它们的欧几里得距离为:
当n=2或者n=3时,也就是在二维或者三维空间中,两个点之间的欧氏距离其实就是它们的实际距离。
两个点距离越小,表示它们的相似度越大,所以欧氏距离其实和相似度成反比关系,我们需要将欧氏距离取个倒数(分母加一是为了防止出现距离为0时的情况):
余弦相似度(Cosine Similarity),主要用于计算文档之间的相似度,因为文档向量是比较稀疏的,所以向量中很多值会等于0,表示该文档不具备某个词。又因为任意两个文档肯定不会包含太多相同的词,所以如果统计 0-0 匹配的话,那么很多文档都会与其他文档很相似(因为每个文档向量都有很多 0),这显然是不合理的。而余弦相似度则可以满足文档相似性匹配的要求,因为它不仅能忽略 0-0 匹配,而且还能处理非二元向量。余弦相似度的具体公式如下:
我们可以看出,余弦相似度其实就是在计算两个向量之间的夹角,它们的夹角越小,余弦值越大,说明相似性也越高。
皮尔森相关系数(Pearson Correlation Coefficient),是一种常用于度量两个变量间紧密程度的方法,取值范围在 -1 到 1 之间。其中,-1 表示两个变量完全负相关,0 表示无关,1 表示完全正相关。它的数学表达式如下:
Sx,Sy 分别代表 A 和 B 的样品标准偏差。
3.得出预测推荐
了解完相似度的计算后,我们就可以根据相似度进行推荐了。前面已经说过,推荐的关键步骤是要找出用户-内容的邻居,而挑选邻居的规则有两种:一是K近邻原则,二是基于阈值的邻居原则。
K近邻原则(K-neighborhoods)示意图如 Fig 3 所示,我们假设为用户1寻找他的邻居用户,K近邻原则要求我们找到与之距离最近的前K个用户,如示意图中K取值为 4,则找到与用户1最近的前 4 个用户,分别为用户 2,3,4 和 5。这样做有着明显的缺点,因为它不管实际距离为多少,都固定取 K 个邻居,这样可能导致的后果是那 K 个邻居可能有些与指定用户距离很远,但被迫被认为与指定用户喜好相似,从而影响系统的推荐精度。这个问题对孤立点来说更为严重。
基于阈值的邻居原则(Threshold-based neighborhoods)示意图如 Fig 4 所示,它与 K 近邻原则有着很大的不同。该原则给定距离 R,然后以指定用户为中心,距离 R 为半径画一个圆,落进该圆范围内的用户都认为是指定用户的邻居,而不管这些用户的具体个数有多少。这样的好处在于,可以确保得到的邻居用户与指定用户的相似度不会相差很远。基于阈值的邻居原则强调的是“宁缺毋滥”,它比 K 近邻原则效果要好,尤其是在数据稀疏的情况下。