机器学习

线性回归与逻辑回归

线性回归逻辑回归Sigmoid分类回归
一句话摘要

两种最基础的监督学习模型:线性回归预测连续数值,逻辑回归解决分类问题。名字相似但用途不同。

线性回归(Linear Regression)

基本思想

用一条直线(或高维的超平面)拟合数据,预测连续数值。

最简单的一元线性回归:y = wx + b

  • w(权重):直线的斜率
  • b(偏置):直线的截距
  • 目标:找到最优的 w 和 b,使预测值与真实值的误差最小

应用场景

  • 房价预测(根据面积、位置等特征预测价格)
  • 满意度评分预测(预测0-10分的连续值)
  • 温度预测

关键点

  • 输出是连续数值
  • 属于监督学习(不是无监督学习!)
  • 不能直接用于分类任务

逻辑回归(Logistic Regression)

基本思想

虽然名字带"回归",但逻辑回归是一个分类模型。

它在线性回归的基础上加了一个Sigmoid函数,把输出映射到(0,1)区间,表示样本属于某一类别的概率。

公式:P = 1 / (1 + e^(-(wx+b)))

  • 当 P > 0.5 时,预测为正类
  • 当 P ≤ 0.5 时,预测为负类

应用场景

  • 垃圾邮件检测(是/不是垃圾邮件)
  • 疾病诊断(是否患病)
  • 用户点击预测(会/不会点击广告)

关键点

  • 输出是概率值(0到1之间)
  • 主要用于二分类,也可扩展为多分类(Softmax回归)
  • 决策边界通常设为0.5

两者的对比

特性线性回归逻辑回归
任务类型回归(预测数值)分类(预测类别)
输出连续值(任意实数)概率值(0到1)
核心函数y = wx + bP = Sigmoid(wx + b)
学习类型监督学习监督学习

考试要点

  • 线性回归是监督学习,不是无监督学习
  • 逻辑回归用于分类,不是回归
  • 逻辑回归输出的是概率值
  • 逻辑回归可以做多分类(通过Softmax扩展)
  • 满意度评分(连续值)用线性回归,不用逻辑回归
微信二维码

扫码备注【NOAI】加交流群