分享免费的编程资源和教程

网站首页 > 技术教程 正文

浅讲AI:几个你需要知道的底层原理——逻辑回归

goqiw 2025-01-10 13:23:24 技术教程 1 ℃ 0 评论

上篇给大家大概讲述了一下关于机器学习中基础部分——线性回归,这是监督学习的一种,主要用于一些预测算法。那么本篇继续为大家讲述第二个基础——逻辑回归

首先关于“回归”这两个字,我觉着有必要先补充一下,这样会让大家更容易接受AI的相关概念。在我们日常生活中提到回归,指返回到某个稳定状态或者回到某个集体,比如台湾回归祖国,房价回归到正常状态等等。那么AI中的回归可以理解为是一个回归的过程,通过不断的训练学习,逐步靠近训练集中的真实值,回归到真实值集合中去,因此提到回归一定就是有目标,在机器学习中我们把这个目标叫做“标签”,有标签意味着就是监督学习,所以只要看到“xx回归”,这就是监督学习的一种。

在本次讲述的“逻辑回归”中,“逻辑”一般指是非对错,代表着2个面,所以一般处理二分类的问题:真or假、是or否、True or False、“1”or“0”等等,那么“回归”就是通过训练学习让预测的逻辑结果逐步靠近真实、回归真实。逻辑回归可用于某个评论是否是违规评论、邮件是否是垃圾邮件、评论是积极正向的还是消极负面的等等。

下面为大家讲讲逻辑回归是如何运行训练的,首先逻辑回归的最开始的输出其实并不是直接给出明确的二分类结果,而是给出介于0-1之间的值,然后我们人为的给这段值划分为2段,一般我们都是设定在y≥0.5,即判定为1(类似四舍五入= =)。详细的训练过程与线性回归的步骤基本一致,只是在某些细节上有些区别(机器学习基本都是这样)如下:

1、准备好训练集,训练集需明确输入x(还记得吧,这个x大概率会是一个向量)和输出(明确指出二分类的结果);

2、给出初始方程,这里就和线性回归不太一样了,会比线性回归更复杂一些。首先总体函数是一个叫Sigmoid函数(或S形函数)(图像如下图)。其次看大家有没有注意到,前面说的函数f(x)是关于x的函数,但是在后面并没有出现x,这就是第二点不一样,逻辑回归的方程式有嵌套的,完整的是一个Sigmoid函数中嵌套一个线性函数z=wx+b,所以完整版的函数是(记得w和x很多时候是向量)


3、最关键的一步:通过不断调整w和b两个参数,让方程能够尽量的拟合训练集中的数据,最终得出一个可以预测出可接受范围内的算法。这一步与线性回归一致,通过不断一小步一小步的调整参数w和b,直到让损失函数尽量接近最小值,这时得到的参数就是一个可以预测是非对错二分类的算法了。

同样,这里再补充几句,主要是对AI或者说机器学习经常提到的名词进行引入和解释:

1、我们在不断调整w和b的值时,目标是让损失函数逐步达到最小值,所以这个过程有一个比较贴切的叫法——梯度下降

2、有的时候我们在训练过程中会出现一种情况,在“训练集”中表现的很出色,损失函数特别小,但是在“测试集”的时候表现又很差,这种情况我们叫做“过拟合”。下图展示关于拟合程度的三种情况,从左到右分别为“欠拟合”、“拟合”、“过拟合”,从图里面我们可以看出,图一过于简单;图二刚刚好;图三过于契合测试集中的数据,太复杂。因此在训练的时候我们也要记住训练到刚刚好就可以了,太过追求完美容易造成过拟合。

那么以上就是关于逻辑回归的简单介绍,包括逻辑回归的定义、用处以及如何进行逻辑回归的训练,这是解决二分类(是非对错)问题的机器学习技术。感谢大家耐心观看,下一章我将继续讲述机器学习的基础——聚类

关注不迷路,如果我讲述的内容对您有帮助,请关注、点赞、转发、收藏!您的支持是我更新的动力来源!

本文暂时没有评论,来添加一个吧(●'◡'●)

欢迎 发表评论:

最近发表
标签列表