以数字 0∼9 的手写识别为例,演示分类回归。
前期准备
目前已经开放的情报
- 假想函数
基于 h(x) 函数表达的从 x→y 的预测算法,最终需要得到最优函数表达对应的 θ
- 代价函数
预测值与实际值之间误差的函数表达:J(θ) ,代价函数基于 θ,理论上当误差得到最小值的时候,就可以得到最优的 θ
- 逻辑回归
利用 Sigmoid 函数将 h(x) 放缩到 0∼1 之间,以实现对分类结果是是/否
的判断,从而通过回归算法梯度下降来拟合出最优的特征参数 θ ,详见:机器学习-逻辑回归
三尺微命,一介书生。
以数字 0∼9 的手写识别为例,演示分类回归。
基于 h(x) 函数表达的从 x→y 的预测算法,最终需要得到最优函数表达对应的 θ
预测值与实际值之间误差的函数表达:J(θ) ,代价函数基于 θ,理论上当误差得到最小值的时候,就可以得到最优的 θ
利用 Sigmoid 函数将 h(x) 放缩到 0∼1 之间,以实现对分类结果是是/否
的判断,从而通过回归算法梯度下降来拟合出最优的特征参数 θ ,详见:机器学习-逻辑回归