• 数据分享|R语言逻辑回归、线性判别分析LDA、GAM、MARS、KNN、QDA、决策树、随机森林、SVM分类葡萄酒交叉验证ROC...


    全文链接:http://tecdat.cn/?p=27384

    在本文中,数据包含有关葡萄牙“Vinho Verde”葡萄酒的信息点击文末“阅读原文”获取完整代码数据

    介绍

    该数据集(查看文末了解数据获取方式)有1599个观测值和12个变量,分别是固定酸度、挥发性酸度、柠檬酸、残糖、氯化物、游离二氧化硫、总二氧化硫、密度、pH值、硫酸盐、酒精和质量。固定酸度、挥发性酸度、柠檬酸、残糖、氯化物、游离二氧化硫、总二氧化硫、密度、pH、硫酸盐和酒精是自变量并且是连续的。质量是因变量,根据 0 到 10 的分数来衡量。

    相关视频

    探索性分析

    总共有 855 款葡萄酒被归类为“好”品质,744 款葡萄酒被归类为“差”品质。固定酸度、挥发性酸度、柠檬酸、氯化物、游离二氧化硫、总二氧化硫、密度、硫酸盐和酒精度与葡萄酒质量显着相关( t 检验的 P 值 < 0.05),这表明了重要的预测因子。我们还构建了密度图来探索 11 个连续变量在“差”和“好”葡萄酒质量上的分布。从图中可以看出,品质优良的葡萄酒在PH方面没有差异,而不同类型的葡萄酒在其他变量上存在差异,这与t检验结果一致。

    1. na.oit() %>
    2. muate(qal= ase_hen(ality>5 ~good", quaity <=5 ~ "poor")) %>%
    3. muate(qua= s.fatrqual)) %>%
    4. dpeme1 <- rsparentTme(trans = .4)
    5. plot = "density", pch = "|",
    6. auto.key = list(columns = 2))

    1ae00e1d8683c3ec36a1c76b60725a9c.png

    图 1. 葡萄酒品质和预测特征之间的描述图。
    表 1. 优质和劣质葡萄酒的基本特征。

    # 在表1中创建一个我们想要的变量b1 <- CeatTableOe(vars  litars, straa = ’qual’ da winetab

    1c3caab79dc2402f64547d786cdbac76.png


    点击标题查阅往期内容

    a0aaff088bea0ae8a1e0da630f0259fd.jpeg

    R语言主成分分析(PCA)葡萄酒可视化:主成分得分散点图和载荷图

    outside_default.png

    左右滑动查看更多

    outside_default.png

    01

    outside_default.png

    02

    outside_default.png

    03

    outside_default.png

    04

    outside_default.png

    模型

    我们随机选择 70% 的观测值作为训练数据,其余的作为测试数据。所有 11 个预测变量都被纳入分析。我们使用线性方法、非线性方法、树方法和支持向量机来预测葡萄酒质量的分类。对于线性方法,我们训练(惩罚)逻辑回归模型和线性判别分析(LDA)。逻辑回归的假设包括相互独立的观察结果以及自变量和对数几率的线性关系。LDA 和 QDA 假设具有正态分布的特征,即预测变量对于“好”和“差”的葡萄酒质量都是正态分布的。对于非线性模型,我们进行了广义加性模型(GAM)、多元自适应回归样条(MARS)、KNN模型和二次判别分析(QDA)。对于树模型,我们进行了分类树和随机森林模型。还执行了具有线性和径向内核的 SVM。我们计算了模型选择的 ROC 和准确度,并调查了变量的重要性。10 折交叉验证 (CV) 用于所有模型。

    inTrai <- cateatPariti(y  winequal, p = 0.7, lit =FASE)traiData <- wine\[inexTr, teDt 

    线性模型 多元逻辑回归显示,在 11 个预测因子中,挥发性酸度、柠檬酸、游离二氧化硫、总二氧化硫、硫酸盐和酒精与葡萄酒质量显着相关(P 值 < 0.05),解释了总方差的 25.1%。酒质。将该模型应用于测试数据时,准确度为 0.75(95%CI:0.71-0.79),ROC 为 0.818,表明数据拟合较好。在进行惩罚性逻辑回归时,我们发现最大化ROC时,最佳调优参数为alpha=1和lambda=0.00086,准确度为0.75(95%CI:0.71-0.79),ROC也为0.818。由于 lambda 接近于零且 ROC 与逻辑回归模型相同,因此惩罚相对较小,

    但是,由于逻辑回归要求自变量之间存在很少或没有多重共线性,因此模型可能会受到 11 个预测变量之间的共线性(如果有的话)的干扰。至于LDA,将模型应用于测试数据时,ROC为0.819,准确率为0.762(95%CI:0.72-0.80)。预测葡萄酒品质的最重要变量是酒精度、挥发性酸度和硫酸盐。与逻辑回归模型相比,LDA 在满足正常假设的情况下,在样本量较小或类别分离良好的情况下更有帮助。

    1. ### 逻辑回归cl - tranControlmehod =cv" number  10,
    2. summayFunio = TRUE)
    3. set.seed(1)
    4. moel.gl<- train(x = tainDaa %>% dpyr::selct(-ual),
    5. y = trainDaa$qualmetod "glm",
    6. metic = OC",
    7. tContrl = crl# 检查预测因素的重要性summary(odel.m)

    outside_default.png

    1. # 建立混淆矩阵
    2. tetred.prb <- rdct(mod.gl, newdat = tstDat
    3. tye = "robtest.ped <- rep("good", length(pred.prconfusionMatrix(data = as.factor(test.pred),

    outside_default.png

    outside_default.png

    # 绘制测试ROC图oc.l <- roc(testa$al, es.pr.rob$god)

    outside_default.png

    ## 测试误差和训练误差er.st. <- mean(tett$qul!= tt.pred)tranped.obgl <-pric(moel.lmnewda= taiDaa,type = "robmoe.ln <-tai(xtraDa %>% dlyr:seec-qal),y = traDmethd = "met",tueGid = lGrid,mtc = "RO",trontrol  ctl)plotodel.gl, xTras =uction() lg(x)

    outside_default.png

    #选择最佳参数mol.mn$bestune

    outside_default.png

    1. # 混淆矩阵tes.red2 <- rp"good" ngth(test.ed.prob2$good))
    2. tst.red2\[tespre.prob2$good < 0.5\] <- "poor
    3. conuionMatridata = as.fcto(test.prd2),

    outside_default.png

    outside_default.png

    outside_default.png

    outside_default.png

    outside_default.png

    非线性模型 在 GAM 模型中,只有挥发性酸度的自由度等于 1,表明线性关联,而对所有其他 10 个变量应用平滑样条。

    结果表明,酒精、柠檬酸、残糖、硫酸盐、固定酸度、挥发性酸度、氯化物和总二氧化硫是显着的预测因子(P值<0.05)。

    总的来说,这些变量解释了葡萄酒质量总变化的 39.1%。使用测试数据的混淆矩阵显示,GAM 的准确度为 0.76(95%CI:0.72-0.80),ROC 为 0.829。

    MARS 模型表明,在最大化 ROC 时,我们在 11 个预测变量中包含了 5 个项,其中 nprune 等于 5,度数为 2。这些预测变量和铰链函数总共解释了总方差的 32.2%。根据 MARS 输出,三个最重要的预测因子是总二氧化硫、酒精和硫酸盐。

    将 MARS 模型应用于测试数据时,准确度为 0.75(95%CI:0.72,0.80),ROC 为 0.823。我们还执行了 KNN 模型进行分类。当 k 等于 22 时,ROC 最大化。KNNmodel 的准确度为 0.63(95%CI:0.59-0.68),ROC 为 0.672。

    QDA模型显示ROC为0.784,准确率为0.71(95%CI:0.66-0.75)。预测葡萄酒质量的最重要变量是酒精、挥发性酸度和硫酸盐。59-0.68),ROC 为 0.672。QDA模型显示ROC为0.784,准确率为0.71(95%CI:0.66-0.75)。

    预测葡萄酒质量的最重要变量是酒精、挥发性酸度和硫酸盐。59-0.68),ROC 为 0.672。QDA模型显示ROC为0.784,准确率为0.71(95%CI:0.66-0.75)。预测葡萄酒质量的最重要变量是酒精、挥发性酸度和硫酸盐。

    GAM 和 MARS 的优点是这两个模型都是非参数模型,并且能够处理高度复杂的非线性关系。具体来说,MARS 模型可以在模型中包含潜在的交互作用。然而,由于模型的复杂性、耗时的计算和高度的过拟合倾向是这两种模型的局限性。对于 KNN 模型,当 k 很大时,预测可能不准确。

    1. ### GAMse.see(1)
    2. md.gam<- ran(x =trainDta %%dplr::slect(-qal),y = traiat$ual,thod = "am",metri = "RO",trCotrol = ctrl)
    3. moel.gm$finlMdel

    outside_default.png

    summary(mel.gam)

    outside_default.png

    1. # 建立混淆矩阵test.pr.pob3 - prdict(mod.ga nwdata =tstData,
    2. tye = "prb")
    3. testped3 - rep"good" legt(test.predpob3$goo))
    4. testprd3\[test.predprob3good < 0.5\] <- "poo
    5. referetv = "good")

    outside_default.png

    outside_default.png

    outside_default.png

    outside_default.png

    model.mars$finalModel

    outside_default.png

    vpmodl.rs$inlodel)

    outside_default.png

    outside_default.png

    outside_default.png

    1. # 绘制测试ROC图
    2. ocmas <- roctestataqua, tes.pred.rob4god)
    3. ## Stting level: conrol = god, case= poor
    4. ## Settig diectio: cntrols> caseplot(ro.mars legac.axes = TRE, prin.auc= RUE)
    5. plot(soothroc.mars), co = 4, ad =TRUE)

    outside_default.png

    1. errr.tria.mas <-man(tainat$qul ! trai.red.ars)### KNNGrid < epa.gri(k seq(from = 1, to = 40, by = 1))
    2. seted(1fknnrainqual ~.,
    3. dta = trnData,
    4. mthd ="knn"metrrid = kid)
    5. ggplot(fitkn

    outside_default.png

    outside_default.png

    # 建立混淆矩阵ts.re.po7 < prdi(ft.kn, ewdt = estDaatype = "prb"

    outside_default.png

    outside_default.png

    1. ### QDAseteed1)%>% pyr:c-ual),y= trataq
    2. ethod "d"mric = "OC",tContol =ctl)# 建立混淆矩阵tet.pprob <-pedct(mol.da,nedaa = teDta,te = "pb")
    3. testred6<- rep(o", leng(est.ped.pob6$goo))

    outside_default.png

    outside_default.png

    outside_default.png

    树方法

    基于分类树,最大化AUC时最终的树大小为41。测试错误率为 0.24,ROC 为 0.809。此分类树的准确度为 0.76(95%CI:0.72-0.80)。我们还进行了随机森林方法来研究变量的重要性。因此,酒精是最重要的变量,其次是硫酸盐、挥发性酸度、总二氧化硫、密度、氯化物、固定酸度、柠檬酸、游离二氧化硫和残糖。pH 是最不重要的变量。对于随机森林模型,测试错误率为 0.163,准确率为 0.84(95%CI:0.80-0.87),ROC 为 0.900。树方法的一个潜在限制是它们对数据的变化很敏感,即数据的微小变化可能引起分类树的较大变化。

    1. # 分类ctr <- tintol(meod ="cv", number = 10,smmryFuton= twoClassSma
    2. et.se(1rart_grid = a.fra(cp = exp(eq(10,-, len =0)))clsste = traqua~., rainDta,metho ="rprt
    3. tueGrid = patid,
    4. trCtrl  cr)
    5. ggt(class.tee,highight =TRE)

    outside_default.png

    outside_default.png

    1. ## 计算测试误差rpartpred = icla.te edta =testata, ye = "aw)
    2. te.ero.sree = mean(testa$a !=rartpre)
    3. rprred_trin  reic(ss.tre,newdta = raiata, tye  "raw")
    4. # 建立混淆矩阵
    5. teste.pob8 <-rdic(cste, edata =tstData,pe = "po"
    6. tet.pd8 - rpgod" legthtetred.rb8d))

    outside_default.png

    outside_default.png

    1. # 绘制测试ROC图
    2. ro.r <-oc(testaual, tstedrob$od)pot(rc.ctreegy.axes  TU pit.a = TRE)plo(ooth(c.tre, col= 4, ad = TRE

    outside_default.png

    1. # 随机森林和变量重要性
    2. ctl "cv, numbr = 10,clasPos = RUEoClssSummry)
    3. rf.grid - xpa.gr(mt = 1:10,
    4. spltrule "gini"min.nd.sie =seq(from = 1,to  12, by = 2))se.sed(1)
    5. rf.fit <- inqual
    6. mthd= "ranger",
    7. meric = "ROC",
    8.  = ctrl
    9. gglt(rf.it,hiliht  TRE)

    outside_default.png

    scle.ermutatin.iportace  TRU)barplt(sort(rangr::imoranc(random

    outside_default.png

    6fdc315119dea3366fcef7e8dd397aa3.png

    a3fa479e93e62a9992a46166013f4612.png

    4f274d2df2a3f0deec694e27088b0458.png

    支持向量机

    我们使用带有线性核的 SVM,并调整了成本函数。我们发现具有最大化 ROChad 成本的模型 = 0.59078。该模型的 ROC 为 0.816,准确度为 0.75(测试误差为 0.25)(95%CI:0.71-0.79)。质量预测最重要的变量是酒精;挥发性酸度和总二氧化硫也是比较重要的变量。如果真实边界是非线性的,则具有径向核的 SVM 性能更好。

    st.seed(svl.fi <- tain(qual~ . ,data = trainDatamehod= "mLar2",tueGri = data.frae(cos = ep(seq(-25,ln = 0))

    9e6a0626d2f584de5409ceea6c69dd4b.png

    74f492d5205efb613965b519f5e3b930.png

    201ed3ce1b0e77303515ba064ea591fe.png

    2c9caac13dc9d5ddf8ff98da7d7d8b14.png

    474ea07d9d4d315580efb2786635b1f0.png

    1. ## 带径向核的SVMsvmr.grid  epand.gid(C = epseq(1,4,le=10)),
    2. iga = expsq(8,len=10)))
    3. svmr.it<- tan(qual ~ .,
    4. da = taiDataRialSigma",
    5. preProcess= c("cer" "scale"),
    6. tunnrol = c)

    a55bbc6dce8f62d13e8357ccc0b4b0fc.png

    982e9d5e6f109d0c49b084a75c28678e.png

    aaa48b187722d55931568a3a9c2ce0f8.png

    4c71be1c32fea1cabfe1dc8ec3334196.png

    模型比较

    模型建立后,我们根据所有模型的训练和测试性能进行模型比较。下表显示了所有模型的交叉验证分类错误率和 ROC。结果中,随机森林模型的 AUC 值最大,而 KNN 最小。因此,我们选择随机森林模型作为我们数据的最佳预测分类模型。基于随机森林模型,酒精、硫酸盐、挥发性酸度、总二氧化硫和密度是帮助我们预测葡萄酒质量分类的前 5 个重要预测因子。由于酒精、硫酸盐和挥发性酸度等因素可能决定葡萄酒的风味和口感,所以这样的发现符合我们的预期。在查看每个模型的总结时,我们意识到KNN模型的AUC值最低,测试分类错误率最大,为0.367。其他九个模型的 AUC 值接近,约为 82%。

    rsam = rsmes(list(summary(resamp)

    744fca1ecf6e7d7de26e366429aec8b7.png

    3de07648e383215780439e292034659d.png

    23cf6995c32d1e8cd5ef5d29e4643098.png

    comrin = sumaryes)$satitics$ROr_quare  smary(rsamp)saisis$sqrekntr::ableomris\[,1:6\])

    26164f6bd0c74e326b768f2011645195.png

    bpot(remp meic = "ROC")

    529c792f0513da813971ee5eb0e360cd.png

    1. f<- datafram(dl\_Name, TainError,Test\_Eror, Tes_RC)
    2. knir::abe(df)

    9c55bfbf8fdd8e557abc4080a9fc97b7.png

    结论

    模型构建过程表明,在训练数据集中,酒精、硫酸盐、挥发性酸度、总二氧化硫和密度是葡萄酒质量分类的前 5 个重要预测因子。我们选择了随机森林模型,因为它的 AUC 值最大,分类错误率最低。该模型在测试数据集中也表现良好。因此,这种随机森林模型是葡萄酒品质分类的有效方法。

    数据获取

    在下面公众号后台回复“葡萄酒数”,可获取完整数据。


    9a4e0f0f43f868f23283a260986b567a.png

    点击文末“阅读原文”

    获取全文完整资料。

    本文选自《R语言惩罚逻辑回归、线性判别分析LDA、广义加性模型GAM、多元自适应回归样条MARS、KNN、二次判别分析QDA、决策树、随机森林、支持向量机SVM分类优质劣质葡萄酒十折交叉验证和ROC可视化》。

    325baf8a84e6017ac3d51ee078ed8492.jpeg

    本文中的葡萄酒数据分享到会员群,扫描下面二维码即可加群!

    7b34a897378f25a1de7d9bbb1f578a14.png

    514ca068edde98ac64850c9aa705f798.jpeg

    49aafa113fba5535327bdbe9d1da4620.png

    点击标题查阅往期内容

    R语言贝叶斯广义线性混合(多层次/水平/嵌套)模型GLMM、逻辑回归分析教育留级影响因素数据

    逻辑回归Logistic模型原理R语言分类预测冠心病风险实例

    数据分享|用加性多元线性回归、随机森林、弹性网络模型预测鲍鱼年龄和可视化

    R语言高维数据惩罚回归方法:主成分回归PCR、岭回归、lasso、弹性网络elastic net分析基因数据(含练习题)

    Python中LARS和Lasso回归之最小角算法Lars分析波士顿住房数据实例

    R语言Bootstrap的岭回归和自适应LASSO回归可视化

    R语言Lasso回归模型变量选择和糖尿病发展预测模型

    R语言实现贝叶斯分位数回归、lasso和自适应lasso贝叶斯分位数回归分析

    基于R语言实现LASSO回归分析

    R语言用LASSO,adaptive LASSO预测通货膨胀时间序列

    R语言自适应LASSO 多项式回归、二元逻辑回归和岭回归应用分析

    R语言惩罚logistic逻辑回归(LASSO,岭回归)高维变量选择的分类模型案例

    Python中的Lasso回归之最小角算法LARS

    r语言中对LASSO回归,Ridge岭回归和弹性网络Elastic Net模型实现

    r语言中对LASSO回归,Ridge岭回归和Elastic Net模型实现

    R语言实现LASSO回归——自己编写LASSO回归算法

    R使用LASSO回归预测股票收益

    python使用LASSO回归预测股票收益

    941c2bf7c3892966a1f2d7ac13cfbec7.png

    ae6b16f11facd3a23ea1ba8104f894b5.jpeg

    ed9de8eeb7f634fd0a6f76723ef09b1d.png

  • 相关阅读:
    从底层结构开始学习FPGA(8)----Block RAM(BRAM,块RAM)
    LeetCode102.二叉树的层序遍历
    使用 JavaScript 切换全屏模式
    web缓存器和CDN
    Java使用Validator类进行实体属性格式验证(一次性返回所有验证结果)
    LeetCode 69. x 的平方根
    Salesforce OmniStudio顾问备考攻略
    字符串拼接,字符串分割,字符串转集合,把Map转String,将字符串转报文
    17.12 事务处理(血干JAVA系类)
    搭建Docker开发环境_Linux
  • 原文地址:https://blog.csdn.net/tecdat/article/details/132893579