跳到主要内容

逻辑回归

逻辑回归
1.逻辑回归概念
解决的是一个二分类问题
逻辑回归的输入是线性回归的输出
2.原理
1.输入:
线性回归的输出
2.激活函数
sigmoid网数
把整体的值映射到[0,1] 再设置一个國值,进行分类判断
3.损失
对数似然损失
借助了log思想,进行完成 ,真实值等于0,等于1两种情况进行划分
4.优化
提升原本属于1类别的概率,降低原本是0 类别的概率。

# 4.机器学习(逻辑回归)
stimator = LogisticRegression()
estimator.fit(x_train, y_train)


分类评估方法
1.混淆矩阵
真正例(TP)
伪反例(FN)
伪正例(FP)
真反例(TN)

准确率:
(TB+TN) /(TB+TN+FN+FP)
精确率 -- 查的准不准
TP/ (TP+fP)
召回率 -- 查的全不全
TP/ (TP+FN)

# 5.3 其他评估
ret = classification_report(y_test, y_pre, labels=(2, 4), target_names=("良性","恶性"))
print(ret)

F1-score
F1-score,反映了模型的稳健型

TPR与FPR
TPR = TP / (TP + FN)
所有真实类别为1的样本中,预测类别为1的比例
FPR = FP / (FP + TN)
所有真实类别为0的样本中,预测类别为1的比例


roc曲线和auc指标
roc曲线
通过tpr和fpr来进行图形绘制,然后绘制之后,行成一个指标auc
auc
越接近1,效果越好
越接近0,效果越差

# 不平衡二分类问题评估方法
y_test = np.where(y_test > 3, 1, 0)
roc_auc_score(y_true=y_test, Y_score=y_pre)