You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
pt5jvslni/_book/Chapter10/基于矩阵分解的协同过滤算法原理.md

2.0 KiB

10.3:基于矩阵分解的协同过滤算法原理

将用户喜好矩阵与内容矩阵进行矩阵乘法就能得到用户对物品的预测结果,而我们的目的是预测结果与真实情况越接近越好。所以,我们将预测值与评分表中已评分部分的值构造平方差损失函数:


loss = \frac{1}{2}\sum\limits_{(i,j)\in r(i,j)=1}(\sum\limits_{l=1}^dx_{il}w_{lj}-y_{ij})^2

其中:

  • i:第i个用户
  • j:第j个物品
  • d:第d种因素
  • x:用户喜好矩阵
  • w:内容矩阵
  • y:评分矩阵
  • r:评分记录矩阵无评分记为0有评分记为1。r(i,j)=1代表用户i对物品j进行过评分r(i,j)=0代表用户i对物品j未进行过评分

损失函数python实现代码如下:

import numpy as np
loss = np.mean(np.multiply((y-np.dot(x,w))**2,record))

其中,record为评分记录矩阵。

我们的目的就是最小化平方差损失函数,通常机器学习都是使用梯度下降的方法来最小化损失函数得到正确的参数。

对每个参数求得偏导如下:


\frac{\partial loss}{\partial x_{ik}} = \sum\limits_{j\in r(i,j)=1}(\sum\limits_{l=1}^dx_{il}w_{lj}-y_{ij})w_{kj}

\frac{\partial loss}{\partial w_{kj}} = \sum\limits_{i\in r(i,j)=1}(\sum\limits_{l=1}^dx_{il}w_{lj}-y_{ij})x_{ik}

则梯度为:


\Delta x = r.(xw-y)w^T

\Delta w = x^T[(xw-y).r]

其中:

.表示点乘法,无则表示矩阵相乘
上标T表示矩阵转置

梯度python代码如下:

x_grads = np.dot(np.multiply(record,np.dot(x,w)-y),w.T)
w_grads = np.dot(x.T,np.multiply(record,np.dot(x,w)-y))

然后再进行梯度下降:

#梯度下降,更新参数
for i in range(n_iter):
	x_grads = np.dot(np.multiply(record,np.dot(x,w)-y),w.T)
	w_grads = np.dot(x.T,np.multiply(record,np.dot(x,w)-y))
    x = alpha*x - lr*x_grads
    w = alpha*w - lr*w_grads

其中:

n_iter:训练轮数
lr:学习率
alpha权重衰减系数用来防止过拟合