线性回归(Linear Regression)
基本思想
用一条直线(或高维的超平面)拟合数据,预测连续数值。
最简单的一元线性回归:y = wx + b
- w(权重):直线的斜率
- b(偏置):直线的截距
- 目标:找到最优的 w 和 b,使预测值与真实值的误差最小
应用场景
- 房价预测(根据面积、位置等特征预测价格)
- 满意度评分预测(预测0-10分的连续值)
- 温度预测
关键点
- 输出是连续数值
- 属于监督学习(不是无监督学习!)
- 不能直接用于分类任务
逻辑回归(Logistic Regression)
基本思想
虽然名字带"回归",但逻辑回归是一个分类模型。
它在线性回归的基础上加了一个Sigmoid函数,把输出映射到(0,1)区间,表示样本属于某一类别的概率。
公式:P = 1 / (1 + e^(-(wx+b)))
- 当 P > 0.5 时,预测为正类
- 当 P ≤ 0.5 时,预测为负类
应用场景
- 垃圾邮件检测(是/不是垃圾邮件)
- 疾病诊断(是否患病)
- 用户点击预测(会/不会点击广告)
关键点
- 输出是概率值(0到1之间)
- 主要用于二分类,也可扩展为多分类(Softmax回归)
- 决策边界通常设为0.5
两者的对比
| 特性 | 线性回归 | 逻辑回归 |
|---|---|---|
| 任务类型 | 回归(预测数值) | 分类(预测类别) |
| 输出 | 连续值(任意实数) | 概率值(0到1) |
| 核心函数 | y = wx + b | P = Sigmoid(wx + b) |
| 学习类型 | 监督学习 | 监督学习 |
考试要点
- 线性回归是监督学习,不是无监督学习
- 逻辑回归用于分类,不是回归
- 逻辑回归输出的是概率值
- 逻辑回归可以做多分类(通过Softmax扩展)
- 满意度评分(连续值)用线性回归,不用逻辑回归