# 10.3:基于矩阵分解的协同过滤算法原理 将用户喜好矩阵与内容矩阵进行矩阵乘法就能得到用户对物品的预测结果,而我们的目的是预测结果与真实情况越接近越好。所以,我们将预测值与评分表中已评分部分的值构造平方差损失函数: $$ loss = \frac{1}{2}\sum\limits_{(i,j)\in r(i,j)=1}(\sum\limits_{l=1}^dx_{il}w_{lj}-y_{ij})^2 $$ 其中: - i:第i个用户 - j:第j个物品 - d:第d种因素 - x:用户喜好矩阵 - w:内容矩阵 - y:评分矩阵 - r:评分记录矩阵,无评分记为0,有评分记为1。r(i,j)=1代表用户i对物品j进行过评分,r(i,j)=0代表用户i对物品j未进行过评分 损失函数`python`实现代码如下: ```python import numpy as np loss = np.mean(np.multiply((y-np.dot(x,w))**2,record)) ``` 其中,`record`为评分记录矩阵。 我们的目的就是最小化平方差损失函数,通常机器学习都是使用梯度下降的方法来最小化损失函数得到正确的参数。 对每个参数求得偏导如下: $$ \frac{\partial loss}{\partial x_{ik}} = \sum\limits_{j\in r(i,j)=1}(\sum\limits_{l=1}^dx_{il}w_{lj}-y_{ij})w_{kj} $$ $$ \frac{\partial loss}{\partial w_{kj}} = \sum\limits_{i\in r(i,j)=1}(\sum\limits_{l=1}^dx_{il}w_{lj}-y_{ij})x_{ik} $$ 则梯度为: $$ \Delta x = r.(xw-y)w^T $$ $$ \Delta w = x^T[(xw-y).r] $$ 其中: .表示点乘法,无则表示矩阵相乘 上标T表示矩阵转置 梯度`python`代码如下: ```python x_grads = np.dot(np.multiply(record,np.dot(x,w)-y),w.T) w_grads = np.dot(x.T,np.multiply(record,np.dot(x,w)-y)) ``` 然后再进行梯度下降: ```python #梯度下降,更新参数 for i in range(n_iter): x_grads = np.dot(np.multiply(record,np.dot(x,w)-y),w.T) w_grads = np.dot(x.T,np.multiply(record,np.dot(x,w)-y)) x = alpha*x - lr*x_grads w = alpha*w - lr*w_grads ``` 其中: n_iter:训练轮数 lr:学习率 alpha:权重衰减系数,用来防止过拟合