使用回归的思想进行分类-逻辑回归

逻辑回归是属于机器学习里面的监督学习,它是以回归的思想来解决分类问题的一种非常经典的二分类分类器。由于其训练后的参数有较强的可解释性,在诸多领域中,逻辑回归通常用作 baseline模型,以方便后期更好的挖掘业务相关信息或提升模型性能。

逻辑回归大体思想

什么是逻辑回归

当一看到“回归”这两个字,可能会认为逻辑回归是一种解决回归问题的算法,然而逻辑回归是通过回归的思想来解决二分类问题的算法。

那么问题来了,回归的算法怎样解决分类问题呢?其实很简单,逻辑回归是将样本特征和样本所属类别的概率联系在一起,假设现在已经训练好了一个逻辑回归的模型为f(x)f(x),模型的输出是样本xx的标签是11的概率,则该模型可以表示成p^=f(x)\hat p=f(x)。若得到了样本xx属于标签11的概率后,很自然的就能想到当p^>0.5\hat p>0.5xx属于标签11,否则属于标签 00 。所以就有y^={0p^<0.51p^>0.5\hat y=\begin{cases} 0 & \hat p <0.5 \\ 1 & \hat p >0.5 \end{cases}(其中y^\hat y为样本 xx 根据模型预测出的标签结果,标签 00 和标签 11 所代表的含义是根据业务决定的,比如在癌细胞识别中可以使 00 代表良性肿瘤,11 代表恶性肿瘤)。

由于概率是 0011 的实数,所以逻辑回归若只需要计算出样本所属标签的概率就是一种回归算法,若需要计算出样本所属标签,则就是一种二分类算法。

那么逻辑回归中样本所属标签的概率怎样计算呢?其实和线性回归有关系,学习了线性回归的话肯定知道线性回归就是训练出一组参数 WWbb 来拟合样本数据,线性回归的输出为y^=Wx+b\hat y=Wx+b 。不过y^\hat y的值域是(,+)(-\infty,+\infty),如果能够将值域为(,+)(-\infty,+\infty) 的实数转换成 (0,1)(0,1) 的概率值的话问题就解决了。要解决这个问题很自然地就能想到将线性回归的输出作为输入,输入到另一个函数中,这个函数能够进行转换工作,假设函数为 σ\sigma ,转换后的概率为 p^\hat p ,则逻辑回归在预测时可以看成 p^=σ(Wx+b)\hat p=\sigma (Wx+b)σ\sigma 其实就是接下来要介绍的sigmoidsigmoid函数。

sigmoid函数

sigmoidsigmoid 函数的公式为:σ(t)=1/1+et\sigma(t)=1/1+e^{-t}。函数图像如下图所示:

sigmoidsigmoid函数的图像可以看出当tt趋近于-\infty时函数值趋近于00,当tt趋近于++\infty时函数值趋近于11。可见sigmoidsigmoid函数的值域是(0,1)(0,1),满足我们要将(,+)(-\infty,+\infty)的实数转换成(0,1)(0,1)的概率值的需求。因此逻辑回归在预测时可以看成p^=1/(1+eWx+b)\hat p=1/(1+e^{-Wx+b}),如果p^>0.5\hat p>0.5时预测为一种类别,否则预测为另一种类别。

逻辑回归的损失函数

在预测样本属于哪个类别时取决于算出来的p^\hat p。从另外一个角度来说,假设现在有一个样本的真实类别为 11 ,模型预测样本为类别 11 的概率为 0.90.9 的话,就意味着这个模型认为当前样本的类别有 90%90\% 的可能性为 11 ,有 10%10\% 的可能性为 00 。所以从这个角度来看,逻辑回归的损失函数与 p^\hat p 有关。

当然逻辑回归的损失函数不仅仅与 p^\hat p 有关,它还与真实类别有关。假设现在有两种情况,情况 A :现在有个样本的真实类别是 00 ,但是模型预测出来该样本是类别 11 的概率是 0.70.7(也就是说类别 00 的概率为 0.30.3 );情况 B :现在有个样本的真实类别是 00 ,但是模型预测出来该样本是类别 11 的概率是 0.60.6(也就是说类别 00 的概率为 0.40.4 );请您思考 22 秒钟,AB 两种情况哪种情况的误差更大?很显然,情况 A 的误差更大!因为情况 A 中模型认为样本是类别 00 的可能性只有 30%30\%,而 情况 B40%40\%

假设现在又有两种情况,情况A: 现在有个样本的真实类别是 00 ,但是模型预测出来该样本是类别 11 的概率是 0.70.7(也就是说类别 00 的概率为 0.30.3);情况B:现在有个样本的真实类别是 11,但是模型预测出来该样本是类别 11 的概率是 0.30.3(也就是说类别 00 的概率为 0.70.7 );请您再思考 22 秒钟,AB两种情况哪种情况的误差更大?很显然,一样大!

所以逻辑回归的损失函数如下,其中 costcost 表示损失函数的值,$y$ 表示样本的真实类别:

cost=ylog(p^)(1y)log(1p^) cost=-ylog(\hat p)-(1-y)log(1-\hat p)

知道了逻辑回归的损失函数之后,逻辑回归的训练流程就很明显了,就是寻找一组合适的 WWbb ,使得损失值最小。找到这组参数后模型就确定下来了。怎么找?很明显,用梯度下降,而且不难算出梯度为:(y^y)x(\hat y - y)x

所以逻辑回归梯度下降的代码如下:

#loss
def J(theta, X_b, y):
    y_hat = self._sigmoid(X_b.dot(theta))
    try:
        return -np.sum(y*np.log(y_hat)+(1-y)*np.log(1-y_hat)) / len(y)
    except:
        return float('inf')

# 算theta对loss的偏导
def dJ(theta, X_b, y):
    return X_b.T.dot(self._sigmoid(X_b.dot(theta)) - y) / len(y)

# 批量梯度下降
def gradient_descent(X_b, y, initial_theta, leraning_rate, n_iters=1e4, epsilon=1e-8):
    theta = initial_theta
    cur_iter = 0
    while cur_iter < n_iters:
        gradient = dJ(theta, X_b, y)
        last_theta = theta
        theta = theta - leraning_rate * gradient
        if (abs(J(theta, X_b, y) - J(last_theta, X_b, y)) < epsilon):
            break
        cur_iter += 1
    return theta

results matching ""

    No results matching ""