以数字 $0\sim9$ 的手写识别为例,演示分类回归。
前期准备
目前已经开放的情报
- 假想函数
基于 $h(x)$ 函数表达的从 $x \to y$ 的预测算法,最终需要得到最优函数表达对应的 $\theta$
- 代价函数
预测值与实际值之间误差的函数表达:$J(\theta)$ ,代价函数基于 $\theta$,理论上当误差得到最小值的时候,就可以得到最优的 $\theta$
- 逻辑回归
利用 $Sigmoid$ 函数将 $h(x)$ 放缩到 $0\sim1$ 之间,以实现对分类结果是是/否
的判断,从而通过回归算法梯度下降来拟合出最优的特征参数 $\theta$ ,详见:机器学习-逻辑回归