当前位置: 首页 > news >正文

Kaggler日志--Day9

进度24/12/18

昨日复盘:
补充并解决Day7Kaggler日志–Day7统计的部分问题

今日进度:
继续完成Day8Kaggler日志–Day8统计问题的解答

明日规划:
今天报名了Regression with an Insurance Dataset算是新手村练习比赛,截止时间是25年1月1日,还有13天。
后续记录都会隐藏,直到比赛结束后再公开!

问题解决

整体流程

四个部分

  • EDA(探索性数据分析)
  • 预处理(移除行、列,填补空缺值)
  • 特征工程(新增特征,特征放缩变换)(类似更高级的预处理)
  • 建模(模型选择,集成,训练与评估)
昨天的问题:
  • EDA部分
    • 对不同变量类型判别的举例说明:
      • 分类可视化时:离散型数值类型、连续型数值类型、类别类型
      • 填补空缺时:填补NA的,填补众数的类别型,填补平均数的数值型,分组填补的。
    • 对于不同类型变量使用的可视化图表的理解
      • 连续分布:kde核密度估计画柱状图、箱线图
      • 离散分布:柱状图
    • 多变量分析可视化
      • 两两相关性分析:相关性热力图–找多重共线性变量
      • 单变量与目标值的相关性:相关性指标、散点图
    • 箱线图与离群点、skewed:箱线图要素以及偏态的判断
待解决问题
  • EDA部分
    • 空缺值填补策略
  • 特征工程
  • CV验证的应用
  • 集成模型
  • 模型融合

空缺值填补

Pandas中使用NaN表示空缺值。
空缺值的产生可能是由于维护不当,或用户没有响应造成的。

缺失值类型

  • 完全随机缺失(MCAR):当数据缺失的概率在所有观测值中均匀分布时为这种缺失。该数据的缺失与数据集中任何其它观察到的或者未观察到的数据之间没有关系。这种缺失是纯随机的,没有任何可辨别的模式。
  • 随机缺失(MAR):数据缺失取决于观测到的数据而不是缺失的数据本身。该缺失值可以通过已拥有的信息变量来解释。缺失值中存在某种模式。(eg.一份数据中,性别为空的记录中才可能缺少年龄项,年龄的缺失取决于性别,但缺少性别的记录中年龄的缺失仍是随机的)
  • 非随机缺失(MNAR):数据的缺失与未观测数据本身有关,此类缺失有固定的模式,但是通过观测变量来解释。(在有关图书馆的调查中,逾期图书较多的人不太可能回应调查,因此逾期图书数量缺失,取决于逾期图书的数量)

了解缺失数据类型至关重要,因为它决定了处理缺失值的适当策略并确保统计分析的完整性

处理类型

  • 删除:丢弃太多数据会影响结论的可靠性
  • 归纳法:
    • 均值/中位数/众数插补:如果数据缺失不是随机分布的,可能会引入偏差。
    • K近邻(KNN插补):根据可用特征找到最近的数据点(邻居),并使用它们的值来估计缺失值。当拥有大量数据且缺失分散时,KNN很有用
    • 基于模型的插补:根据数据中的其它特征来预测缺失值,这可能是一种强大的技术,但是需要更多的专业知识,并且计算成本可能很高。

为什么要处理缺失值

  • 如果数据包含缺失值,许多机器学习算法都会失败
  • 最终可能构建一个有偏见的模型,如果缺失值处理不当会导致不正确的结果
  • 缺失数据可能导致系统缺乏精度

处理方法

  • 删除缺失值
  • 填补缺失值
  • 填补分类特征的缺失值
  • 使用Sci-kit学习库填补缺失值
  • 使用缺失值作为特征
删除缺失值

一般来说不推荐,如果缺失值属于非随机确实类型(MNAR),则更不应删除。
如果为随机缺失或者完全随机缺失,则可以考虑删除,当然删除就可能丢失有用数据

删除也有两种方法:

  • 整行删除df.dropna(axis=0)
  • 整列删除``df.drop([‘col_name’], axis=1)
估算缺失值
  • 用任意值替换df["col_name"].fillna(0)
  • 用平均值(适用数值)/众数(适用类别)/中位数(适用出现异常的数值)替换df["col_name"] = df["col_name"].fillna(df["col_name"].mean())
  • 用前一个值向前填充(适用于时间序列数据)Series.fillna(methods='ffill')。用下一个值是bfill
  • 插值:有多种不同的插值方法–多项式、线性、二次。默认是线性Series.interpolate()
    (插值是利用周围的数值来估计中间的空缺值,一般用在序列数据或图像数据上)
分类特征缺失值
  • 估算最常见的值
from sklearn.impute import SimpleImputer
imputer = SimpleImputer(strategy="most_frequent")
imputer.fit_transformer(X)
  • 估算缺失值:SimpleImputer(strategy="constant", fill_value="missing")
使用Sci-kit学习库填补缺失值

通过创建另一个模型来根据另一个变量预测一个变量的观测值,称为回归填补

  • 单变量方法imp = SimpleImputer(missing_values=np.nan, strategy='mean')
  • 多变量方法
    • KNNImputer:找到已有观测值最相似的行,利用这些行估计缺失值
    • IterativeImputer:构建从已有观测值计算缺失观测值的模型来估计缺失值
使用“缺失值”作为特征

某些情况下,可以保留缺失值的缺失情况作为特征。因为有时,缺失值缺失的原因与尝试预测的目标变量之间可能存在关系。
(eg. 假设正在预测疾病,由于没有贫困人口记录,年龄缺失很可能可是一个很好的指标,因为年龄缺失不是随机的,贫困人口很可能缺失年龄,并且贫困核疾病相关)

imputer = SimpleImputer(add_indicator=True)
imputer.fit_transform(X)

特征工程

特征工程是指从原始数据转化为特征向量的过程,特征工程是机器学习中最重要的起始步骤,会直接影响机器学习的效果,并通常需要大量的时间。典型的特征工程包括数据清理、特征提取、特征选择等过程。

数据清理

  • 缩放特征值
  • 处理极端离群值
  • 分箱(离散化)
  • 填补遗漏值
  • 移除重复样本、不良标签、不良特征值等
  • 平滑
  • 正则化

降维

高维情形下经常会碰到样本系数、距离计算困难的问题,解决方法就是降维

  • 主成分分析法(PCA)
  • 核化线性降维(KPCA)
  • 等…

特征选择

特征选择是一个从给定的特征集合种选择与当前学习任务相关的特征的过程。一些“冗余特征”需要剔除。
常见的特征选择方法有三类:

  • 过滤式选择:先对数据集进行特征选择,再训练学习器,特征选择与后续机器学习无关。典型算法为Relief算法
    • 方差选择法
    • 相关系数法
    • 卡方检验
    • 互信息法
  • 包裹是选择:选择直接把最终要使用的学习器的性能作为特征子集的评价标准。典型算法为LVM
    • 递归特征消除法
  • 嵌入式选择:将特征选择过程与学习器训练过程融为一体,两者再同一个优化过程中文昌,即再学习器训练过程中自动地进行了特征选择。典型算法为岭回归、LASSO回归等
    • 基于惩罚项地特征选择法
    • 基于树模型的特征选择法

良好特征的特点包括:

  • 避免很少使用的离散特征值:良好的特征值应该再数据集中出现大约5次以上
  • 最好具有清晰的定义
  • 良好的浮点特征不包含超出范围的异常断点或“神奇”的值
  • 特征的定义不应随时间变化

特征组合

特征组合称为特征交叉,通过将两个或多个输入特征相乘来对特征空间中的非线性规律进行编码的合成特征。

常见的特征组合方程:

  • A X B
  • A X B X C X D X E
  • A X A

CV的深入理解

有一个问题:CV可以用在最终评估和超参数调优的网格化搜索过程中,但是如果这两个过程都使用同一个数据集进行CV。就是最终验证要用到的数据参与到了模型的建模(调优)过程中,这样是可以的吗?

集成建模

模型集成是一种通过结合多个独立训练的机器学习模型来提高整体性能的技术。这种方法通过利用多个模型的额不同优势和学习特征,以期望在继承后获得更好的泛化能力、稳健性和性能表现。

常见类型:

  • 投票集成:多个模型独立训练,预测时每个模型投票,最终的预测结果有多数投票决定
  • 平均集成,多个模型的预测结果取平均值,分类问题可以使用概率的平均值
  • 自适应集成:这种方法动态地选择哪个模型对于给定输入更合适。这可以基于输入数据的特性,例如使用某个模型在某些特定子集上表现更好
  • Stacking :更复杂的集成方法,在一个一元模型的框架下结合多个基本模型。基本模型的预测结果成为元模型的输入。元模型通过学习如何结合基本模型的输出来产生最终预测结果
  • Boosting,其中弱分类器按顺序进行训练,每个新模型都试图纠正前一个模型的错误,最终的预测结果时所有模型的加权组合。
  • Bagging,通过在训练集上进行重采样,训练多个模型,然后将它们的预测结果平均或投票

优势如下:

  1. 提高泛化能力
  2. 降低过拟合风险
  3. 提高鲁棒性
  4. 性能提升

模型融合

模型融合是指将多个模型的输出结果结合起来,以产生最终的预测结果。模型融合通常是集成建模的一个具体实现,强调如何将不同模型的结果进行合并。

集成建模更强调模型的组合策略和训练过程,通常涉及多种模型和集成方法。
模型融合侧重于如何将多个模型的输出结果结合在一起,强调的是结果的整合。

附录

有关EDA和特征工程的思考

EDA更多的是查询数据,发现数据模式和异常,而实际的对数据的各种修改操作都算是特征工程的范畴。

二者相互促进:
EDA为特征工程和模型选择提供直到,特征工程构建新的特征后可以再次EDA,以验证新特征对模型性能的影响。


http://www.mrgr.cn/news/80822.html

相关文章:

  • Go使用sqlx操作MySQL完整指南
  • vue框架的搭建
  • [spring]实例化对象(静动态工厂)
  • stm32制作CAN适配器5--WinUsb上位机编写
  • FPGA-PS端编程1:
  • c语言中的信号处理:学习<signal.h>
  • Docker:Dockerfile(补充四)
  • 【Rust自学】4.1. 所有权:栈内存 vs. 堆内存
  • 【Linux】NET9运行时移植到低版本GLIBC的Linux纯内核板卡上
  • 初学stm32 ——— 串口通信
  • Qt Quick:CheckBox 复选框
  • Spring Boot 配置Kafka
  • 【0371】Postgres内核 实现构建一个 WAL record
  • 【java面向对象编程】第二弹----成员方法
  • 基于DockerCompose搭建Redis主从哨兵模式
  • js分页功能
  • 【Python】使用Selenium 操作浏览器 自动化测试 记录
  • regression里面的误差来源
  • Pytorch | 从零构建AlexNet对CIFAR10进行分类
  • Linux函数栈帧
  • windows上安装Redis
  • 对AI现状和未来发展的浅见
  • 关于代码注释
  • 分布式算法(一):从ACID和BASE到CAP
  • 面试题整理6----什么是进程最大数、最大线程数、进程打开的文件数,怎么调整
  • 百度飞桨:零基础入门深度学习