1. 假设函数 H(x)? Hppothesis Function 学习机器学习的主角,发挥驱动引擎的作用
2. 损失函数 L(x)? Loss Function 第二大主角 为机器学习提供了学习动力, 让机器学习不断逼近学习目标的迭代过程
3. 成本函数 J(x)? Cost Function 与损失函数意义相近,同样是函数返回值越大,表示偏差越大。损失函数针对的是单个样本,成本函数针对的是整个数据集;可以令损失函数相加的和是成本函数,或者成本函数是损失函数的平均
4. 优化方法 ‘新参数值=旧参数值-损失值’ 就是利用损失函数的结果(误差)来调整假设函数,并不断朝着损失值最小化的方向训练、调整,并最终完成学习
5. 梯度下降 Gradient Descent (一种常见的优化方法 微积分术语 先确定方向,再大幅度调整并逐渐缩小每次调整的值)
6. 有监督学习(Supervised Learning)就是有参考答案的学习。具体来说,就是数据集中包含了预测结果,譬如在房价的数据集中,除了给出面积、楼龄等数据外,真实房价也给了出来,这就是有监督学习,而无监督学习(Unsupervised Learning)则相反。有监督学习分为回归问题和分类问题,结果离散就是分类问题,结果连续就是回归问题。无监督学习没有参考答案,无需依赖标记样本,仅通过在样本间进行比较计算达成目标,常见的有聚类问题
7.线性回归算法 最基本的机器学习算法
8. Logistic回归算法 具有解决分类问题的能力
9. KNN分类算法 唯一一个不依赖数学或统计学模型 纯靠“生活经验”的算法
10. 朴素贝叶斯分类算法 一套能刷新你世界观的算法, 解决分类问题
11. 决策树分类算法 如果程序员的思维用if else来概括,决策树分类算法应该就是最接近程序员逻辑的机器学习算法
12. 支持向量机分类算法 是线性分类算法的最高形式(Logistic回归算法是最基础的线性分类算法)
13.K-means聚类算法 是无监督学习中最具代表性的一种,而K-means是聚类算法中的典型代表
14. 神经网络分类算法 当下热门算法————深度学习算法的起点,由许多神经元连接所构成的网络,很多人认为该算法是一种仿生算法,模仿对象正是我们的大脑
|