我就是来看看机器学习是啥,,,一直没接触,太玄乎了,试试,就瞎几把写...诸位轻喷
监督学习:
在监督学习中,我们得到了一个数据集,并且已经知道我们的正确输出应该是什么样子,并且知道输入和输出之间存在关系。
监督学习问题分为“回归”和“分类”问题。 在回归问题中,我们试图预测连续输出中的结果,这意味着我们试图将输入变量映射到某个连续函数。 在分类问题中,我们试图在离散输出中预测结果。 换句话说,我们试图将输入变量映射到离散类别中。
无监督学习:
无监督学习使我们能够在几乎不知道结果应该是什么样子的情况下解决问题。 我们可以从数据中推导出结构,而我们不一定知道变量的影响。
我们可以通过基于数据中变量之间的关系对数据进行聚类来推导出这种结构。
对于无监督学习,没有基于预测结果的反馈。
对待一个问题,用监督学习还是无监督学习,可以通过下面方式区别:
输入的数据是否labled,即是否有这样的数据:a作为input应该输出b
如果确定了使用监督学习,是“分类”还是“回归”直接看输出是否是连续的值。
代价函数:
给定一些数据后,列出带有未知参数的函数如:
h(x) = a0 + a1 * x,其中a0 和a1 的值是不确定的,为了使自己的模型符合实际数据,可以根据代价函数获得比较合适的参数;
梯度下降(Gradient descent):
梯度下降是为了确定假设函数的参数,使假设函数更符合数据。
梯度下降的步骤:
? 1-给定参数的初值;
? 2-迭代,进而收敛得到值
例子:
? 有假设函数:
? 代价函数:
? 梯度下降开始:
一些问题:
- 一个同学在夏令营中遇到的,数据处理:数据集如何处理,如保留几位小数这种(额,不懂,,这种不是保留的越多结果越好嘛,,是不是考虑到卡计算速度折中一下?希望下面的学习让我搞清这个吧,懵。
- 西瓜书?
|