• 机器学习吴恩达


    高偏差/欠拟合的情况下,增加数据到训练集不一定能有帮助

    解决高方差:

    • 获取更多的训练实例
    • 尝试减少特征的数量
    • 尝试增加正则化程度lambda

    解决高偏差:

    • 尝试获取更多的特征
    • 尝试增加多项式特征
    • 尝试减少正则化程度lambda

    把数据分为训练集,交叉验证集和测试集,针对不同隐藏层层数的神经网络训练升级网络,然后选择交叉验证集代价最小的神经网络

    类偏斜的误差度量

    类偏斜:即训练集中有非常多的同一种类实例,只有很少或没有其他类的实例。(故:不可用误差的大小来评判算法效果)

    引出查准率precision 和 查全率 recall
    在这里插入图片描述
    查准率precision = TP/(TP+FP)
    查全率recall = TP/(TP+FN)

    P-R曲线图会根据阈值的不同而变化
    选择阈值的方法:F1 Score
    F1 Score = 2 P R / ( P + R ) 2PR/(P+R) 2PR/(P+R) 我们选择使得F1 Score值最高的阈值

    逻辑回归函数的代价函数:
    h θ ( x ) = 1 1 + e − θ T X h_{\theta}(x)=\frac{1}{1+e^{-\theta^{T} X}} hθ(x)=1+eθTX1
    对于线性回归模型,我们定义的代价函数是所有模型误差的平方和。理论上来说,我们
    也可以对逻辑回归模型沿用这个定义,但是问题在于,当我们将 h θ ( x ) = 1 1 + e − θ T X h_{\theta}(x)=\frac{1}{1+e^{-\theta^{T} X}} hθ(x)=1+eθTX1带入到这样定义了的代价函数中时,我们得到的代价函数将是一个非凸函数
    在这里插入图片描述
    这意味着我们的代价函数有许多局部最小值,这将影响梯度下降算法寻找全局最小值。
    线性回归的代价函数为:
    J ( θ ) = 1 m ∑ i = 1 m 1 2 ( h θ ( x ( i ) ) − y ( i ) ) J(\theta)=\frac{1}{m}\sum_{i=1}^{m}\frac{1}{2}\left(h_{\theta}\left(x^{(i)}\right)-y^{(i)}\right) J(θ)=m1i=1m21(hθ(x(i))y(i))

    在这里插入图片描述
    在这里插入图片描述

  • 相关阅读:
    掌握全局代码执行和作用域的提升
    Roson的Qt之旅 #122 Qt信号与槽的所有connect方法说明
    万字深剖进程地址空间(全程干货)
    吴恩达机器学习-可选实验:使用ScikitLearn进行线性回归(Linear Regression using Scikit-Learn)
    web基础与HTTP协议
    成绩管理系统
    Vue.js入门教程(八)
    分布式架构篇
    OPTEE Gprof(GNU profile)
    前端面试题大汇总
  • 原文地址:https://blog.csdn.net/weixin_43845922/article/details/126554699