知识点:回归分析

知识点概述

回归分析是一种预测性的建模技术,旨在研究因变量(目标)和自变量(预测器)之间的关系。其核心是建立一个函数来拟合数据,而这个拟合过程通常被构建为一个优化问题,即最小化预测误差。

教材原文

3.2.1 概述 … 3.2.2 线性回归模型 … 3.2.3 正则化线性回归模型

详细解释

  • 线性回归:
    • 模型: 假设因变量是自变量的线性组合,即
    • 优化问题 (最小二乘法): 寻找参数 以最小化预测值与真实值之间的平方误差和:。这是一个无约束的凸二次优化问题,有解析解
  • 正则化线性回归:
    • 动机: 当特征数量多或特征间相关性强时,普通最小二乘法容易产生过拟合,解不稳定。正则化通过在目标函数中加入惩罚项来约束模型复杂度。
    • 岭回归 (Ridge): 加入 范数惩罚项,。目标函数是强凸的,解唯一且稳定。
    • LASSO: 加入 范数惩罚项,。能产生稀疏解,可用于特征选择。

学习要点

  • 理解回归分析的目标是拟合数据。
  • 掌握最经典的线性回归模型及其最小二乘解。
  • 理解正则化的概念(惩罚模型复杂度以防止过拟合)。
  • 区分岭回归和LASSO的目标函数及其对解的影响(稳定解 vs. 稀疏解)。

实践应用

  • 经济学: 预测GDP增长与利率、通胀的关系。
  • 医学: 根据病人的生理指标预测某种疾病的风险。
  • 市场营销: 预测广告投入与销售额之间的关系。

关联知识点