在学习完机器学习基础之后,对分类和回归之前的联系和区别还有一点困惑,通过知识重新回顾学习,对二者的关系有了进一步了解。
不管是分类,还是回归,其本质是一样的,都是对输入做出预测,并且都是监督学习。说白了,就是根据特征,分析输入的内容,判断它的类别,或者预测其值。
1.分类问题输出的是物体所属的类别,回归问题输出的是物体的值。
举个栗子:例如,最近南昌的天气比较怪(阴晴不定,像极了女朋友的脾气),为了能够对明天穿衣服的量以及是否携带雨具做判断,我们就要根据已有天气情况做预测。
2.分类问题输出的值是离散的,回归问题输出的值是连续的
注:这个离散和连续不是纯数学意义上的离散和连续。
可以这样理解,离散就是规定好有有限个类别,这些类别是离散的。连续就是理论上可以取某一范围内的任意值,比如现在28°,当然这是我们测出来的,但是实际温度可能是无限趋于28。也就是说,回归并没有要求你的值必须是那个类别,你只要能回归出一个值,在可控范围内即可。
3.分类问题输出的值是定性的,回归问题输出的值是定量的
举个栗子:这是一杯水,这句话是定性;这杯水有10毫升,这是定量。
分类的目的是为了寻找决策边界,即分类算法得到是一个决策面,用于对数据集中的数据进行分类。
回归的目的是为了找到最优拟合,通过回归算法得到是一个最优拟合线,这个线条可以最好的接近数据集中的各个点。
“回归与分类的根本区别在于输出空间是否为一个度量空间。”
回归问题与分类问题本质上都是要建立映射关系:
而两者的区别则在于:
事实上,在实际操作中,我们确实常常将回归问题和分类问题互相转化(分类问题回归化:逻辑回归;回归问题分类化:年龄预测问题——>年龄段分类问题),但这都是为了处理实际问题时的方便之举,背后损失的是数学上的严谨性。
所谓的离散与连续的差别是分类与回归的不同的表象,而非本质,本质在于损失函数的形式不同。
结果:
评估指标:
分类问题应用非常广泛。通常是建立在回归之上,分类的最后一层通常要使用softmax函数进行判断其所属类别。分类并没有逼近的概念,最终正确结果只有一个,错误的就是错误的,不会有相近的概念。
例如判断一幅图片上的动物是一只猫还是一只狗,判断明天天气的阴晴,判断零件的合格与不合格等等。
回归方法处理分类问题本质上就是把没有度量的“类标签”赋予一个连续度量,常见的选择就是概率。例如给出三个样本,其原始标签是“类A、类B、类C”,转化后的新标签就是【1,0,0】,【0,1,0】,【0,0,1】(对就是onehot编码)。最后通过回归建立一个误差函数最小的拟合模型,然后比如说该模型对测试样本输出为【0.0914,0.2587,0.8321】则代表了该样本属于每一类的概率,然后视分类判决依据将该样本分至相应类,(若按最大似然标准,则此处样本归为类C)。现在多分类所采用的softmax就是这么做的。
回归问题通常是用来预测一个值。另外,回归分析用在神经网络上,其最上层是不需要加上softmax函数的,而是直接对前一层累加即可。一个比较常见的回归算法是线性回归算法(LR)
如预测房价、股票的成交额、未来的天气情况等等。