本文介绍: 摆烂才是王道

0.前提

深度学习(Deep Learing)是机器学习(Machine Learning领域中的一个新的研究方向,在如今的时代研究深度学习的大模型是十分热门的。我不知道多少人有关注到最近openai事件啊,说个比较让我惊讶的事情,一直在支持我做一些实验老师今年在ICCV的A区发文章直接给我看傻了,平常经常看到老师骑着电车在学校里面跑。既然深度学习是机器学习的一个子集,那想要入门深度学习,学习机器学习那就很有必要了。这篇文章也是为了在未来更好解剖了解我的智能小车

1.机器学习的类型

机器学习包含监督学习、无监督学习、强化学习等。

1.监督学习

·监督学习是指利用标签数据进行训练从而得到预测模型的学习任务。换句话说就是训练数据有标签,输入数据x预测y

·监督学习算法主要分两类:离散的,那就是分类算法(classification);连续的,那就是回归算法(regression)。

1.分类算法

分类基于预测模型推理离散的的输出值:0或1。

2.回归算法

回归基于预测模型对未知的输出值推测出一个连续值得结果

2.无监督学习

·无监督学习里的数据只有输入属性没有标签。

·无监督学习算法是基于一种“物以类聚”的思想:聚类算法和关联算法

1.聚类

聚类指将对象分组聚类

2.关联

关联数据库中找联系。

3.强化学习

强化学习用于描述和解智能体在环境交互过程通过学习策略以达成回报最大化或实现特定目标问题。这有点类似下棋时的博弈论。

2.机器学习的主要概念

机学习的方法模型损失函数优化算法、模型评估指标等几个要素构成。

1.模型

机器学习要先考虑使用模型模型类别大致分为概率模型和非概率模型

1.概率模型

·在监督学习中:概率模型表示为P(y|x)。x是输入,y是输出。

·在无监督学习中:概率模型表示为P(z|x)。x是输入,z是输出。

·决策树朴素贝叶斯、隐马尔科夫模型高斯混合模型属于概率模型

2.非概率模型

·在监督学习中:非概率模型表示y=f(x)。x是输入,y是输出。

·在非监督学习中:非概率模型表示为z=f(x)。x是输入,z是输出。

·感知机、支持向量机、KNN、AdaBoost、K-means以及神经网络属于概率模型

概率模型又可按函数线性分为线性模型和非线性模型。

线性模型
感知机、线性支持向量机、KNN、K-means线性模型。
非线性模型
核支持向量机、AdaBoost神经网络属于非线性模型。

2.损失函数

在机器学习中常见损失函数有4种。有没有很熟悉的感觉?

损失函数数值越小,模型性能越好。平均损失称为经验风险。经验风险最小化得出全局损失函数最优问题

_{f}^{min}textrm{}frac{1}{N}sum_{n=1}^{N}L(y_{a},f(x_{n}))

样本数量够大时,根据大数定理(既伯努利大数定理,当进行大量实验时,事件的频率趋近于概率),经验风险会近似于模型的期待风险,此时经验风险最小化,有较好的学习效果。但当样本数量不够时,利用经验风险最小化就会“过拟合”,在原基础上加入控制模型复杂度正则项:

_{f}^{min}textrm{}frac{1}{N}sum_{n=1}^{N}L(y_{a},f(x_{n}))+lambda J (f)

J(f)表示对模型复杂度惩罚。模型越复杂,J(f)越大;模型越简单,J(f)越小。lambda正则系数,是正常数用于平衡经验风险和模型复杂度结构风险小的模型在经验风险和模型复杂度都小时,训练数据和测试数据有较好的拟合

3.优化算法

算法指模型学习中的具体计算方法基于参数模型参数模型构建的我统计学习问题为最优化问题,有显式解析解。优化方法有梯度下降法、牛顿法、拟牛顿法、ADAM等。

4.模型评估

损失函数给定基于模型训练数据的误差测试数据的误差作为模型评估标准

测试误差的具体定义E_{test}=frac{1}{N'}sum_{n=1}^{N'}L(y_{n},widehat{f}(x_{n}))

N’为测试数据数量,L(y_{n},widehat{f}(x_{n}))是损失函数y_{n}代表真实标签,widehat{f}(x_{n})代表预测标签。若模型学习的效果好,训练误差和测试误差接近一致。

3.机器学习的学习基础

1.高数-导数

高数课本中对导数定义:设函数y=f(x)在点x_{0}的某个领域内有定义,当自变量xx_{0}处取得增量Delta x(点x_{0}+Delta x仍在该领域内)时,相应地,因变量取得增量Delta y=f(x_{0}+Delta x)-f(x_{0});如果Delta yDelta x之比当Delta xrightarrow0时的极限存在,那函数y=f(x)x_{0}处可导,称该极限为函数y=f(x)x_{0}处的导数——f'(x_{0})=_{Delta xrightarrow 0}^{lim}frac{Delta y}{Delta x}=_{Delta x}^{lim}frac{f(x_{0}+Delta x)-f(x_{0})}{Delta x}

以下就是我之前学高数时做的笔记记录导数运算公式

2.高数-泰勒公式

3.线代-行列式 

4.线代-矩阵 

5.线代-求导 

线代的求导在我翻看了我的所有线笔记资料后,发现大学课堂上是不讲线代求导的,那这里我就放出非本人笔记内容了:

6.概率与数理 –随机事件与概率

我是大二上半学期学的概率与数理,我印象比较深刻的就是在12月分初的时候因为疫情提前放假了,所有的考试都推迟到了下半学期进行,下半学期开学几周内我要考十几门试(别问我为什么不在复习!我不觉得有多少人有毅力在家复习,更何况当时大家阳着。),我差点die。

7.概率与数理-古典概型与几何概型 

8.概率与数理-条件概率 

9.概率与数理-全概率

 10.概率与数理-各种分布

 10.概率与数理-期望方差

在这一章笔记里我自己记的笔记比较乱,只有我自己才能看得懂,我就不放出来了。我换个东西放出来。

4.总结 

这里我强烈推荐大家去看一下吴恩达老师课程,非常感谢大佬能将老师课程翻译过来,当然,少看中文翻译更好的克服语言障碍。

(强推|双字)2022吴恩达机器学习Deeplearning.ai课程_哔哩哔哩_bilibili

原文地址:https://blog.csdn.net/weixin_75067193/article/details/134607122

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任

如若转载,请注明出处:http://www.7code.cn/show_39858.html

如若内容造成侵权/违法违规/事实不符,请联系代码007邮箱suwngjj01@126.com进行投诉反馈,一经查实,立即删除

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注