💎一站式轻松地调用各大LLM模型接口,支持GPT4、智谱、星火、月之暗面及文生图 广告
# 1.15. 等式回归 校验者: [@STAN,废柴0.1](https://github.com/apachecn/scikit-learn-doc-zh) 翻译者: [@Damon](https://github.com/apachecn/scikit-learn-doc-zh) [`IsotonicRegression`](generated/sklearn.isotonic.IsotonicRegression.html#sklearn.isotonic.IsotonicRegression "sklearn.isotonic.IsotonicRegression") 类对数据进行非降函数拟合. 它解决了如下的问题: > 最小化 ![\sum_i w_i (y_i - \hat{y}_i)^2](https://box.kancloud.cn/c3067c18cfd19b7cbe7fc3eccd620125_115x21.jpg) > > 服从于 ![\hat{y}_{min} = \hat{y}_1 \le \hat{y}_2 ... \le \hat{y}_n = \hat{y}_{max}](https://box.kancloud.cn/8116718e578327e4fea7843c4f232cd2_228x17.jpg) 其中每一个 ![w_i](https://box.kancloud.cn/3ea92178b943698eb51f4a61771ecf7e_17x11.jpg) 是 strictly 正数而且每个 ![y_i](https://box.kancloud.cn/e79627211612bc56c4f7d926a93fbe8d_13x12.jpg) 是任意实 数. 它生成一个由平方误差接近的不减元素组成的向量.实际上这一些元素形成 一个分段线性的函数. [![http://sklearn.apachecn.org/cn/0.19.0/_images/sphx_glr_plot_isotonic_regression_0011.png](https://box.kancloud.cn/19eed77c9f7ceb9d2badd1a9a2ae1417_566x424.jpg)](../auto_examples/plot_isotonic_regression.html)