econml.sklearn_extensions.linear_model.MultiOutputDebiasedLasso
- class econml.sklearn_extensions.linear_model.MultiOutputDebiasedLasso(alpha='auto', n_alphas=100, alpha_cov='auto', n_alphas_cov=10, fit_intercept=True, precompute=False, copy_X=True, max_iter=1000, tol=0.0001, warm_start=False, random_state=None, selection='cyclic', n_jobs=None)[源代码]
基类:
sklearn.multioutput.MultiOutputRegressor
去偏 MultiOutputLasso 模型。
实现源自 <https://arxiv.org/abs/1303.0518>。对每个目标应用一次去偏 Lasso。如果只传入扁平目标,则会退化为 DebiasedLasso 算法。
- 参数
alpha (str | float, 可选. 默认 ‘auto’.) – 乘以 L1 项的常数。默认为 ‘auto’。
alpha = 0
等同于普通最小二乘,由LinearRegression
对象解决。出于数值原因,不建议使用Lasso
对象且alpha = 0
。鉴于此,您应该使用LinearRegression
对象。n_alphas (int, default 100) – 如果 alpha=’auto’,尝试多少个 alpha
alpha_cov (str | float, default ‘auto’) – 用于构建用于校正 lasso 系数的协方差矩阵 Theta 的伪逆时使用的正则化 alpha。每一次这样的回归对应于一个特征对其余特征的回归。
n_alphas_cov (int, default 10) – 如果 alpha_cov=’auto’,尝试多少个 alpha_cov。
fit_intercept (bool, default True) – 是否为该模型计算截距。如果设置为 False,则计算中不使用截距(例如,数据已中心化)。
precompute (True | False | array_like, default False) – 是否使用预计算的 Gram 矩阵来加速计算。如果设置为
'auto'
则由我们决定。Gram 矩阵也可以作为参数传入。对于稀疏输入,该选项始终为True
以保持稀疏性。copy_X (bool, default True) – 如果
True
,X将被复制;否则,可能会被覆盖。max_iter (int, 可选) – 最大迭代次数
tol (float, 可选) – 优化的容差:如果更新小于
tol
,优化代码会检查对偶间隙是否最优,并持续进行直到小于tol
。warm_start (bool, 可选) – 设置为 True 时,重用前一次调用 fit 的解作为初始化,否则,清除前一次的解。参见词汇表。
random_state (int, RandomState 实例, 或 None, default None) – 选择随机特征进行更新的伪随机数生成器的种子。如果为 int,random_state 是随机数生成器使用的种子;如果为
RandomState
实例,random_state 是随机数生成器;如果为 None,随机数生成器是np.random
使用的RandomState
实例。在selection='random'
时使用。selection (str, default ‘cyclic’) – 如果设置为 ‘random’,则每次迭代更新一个随机系数,而不是默认的按顺序遍历特征。这(设置为 ‘random’)通常会导致显著更快的收敛,尤其是在容差高于 1e-4 时。
n_jobs (int, 可选) – 并行调用时使用多少个作业
- coef_
参数向量(成本函数公式中的 w)。
- 类型
数组,形状 (n_targets, n_features) 或 (n_features,)
- coef_stderr_
系数的估计标准误(参见
coef_
属性)。- 类型
数组,形状 (n_targets, n_features) 或 (n_features, )
- __init__(alpha='auto', n_alphas=100, alpha_cov='auto', n_alphas_cov=10, fit_intercept=True, precompute=False, copy_X=True, max_iter=1000, tol=0.0001, warm_start=False, random_state=None, selection='cyclic', n_jobs=None)[源代码]
方法
__init__
([alpha, n_alphas, alpha_cov, ...])coef__interval
([alpha])获取拟合系数的置信区间。
fit
(X, y[, sample_weight])拟合多输出去偏 Lasso 模型。
get_params
([deep])获取此估计器的参数。
intercept__interval
([alpha])获取拟合截距的置信区间。
partial_fit
(X, y[, sample_weight])为每个输出变量对数据进行增量拟合模型。
predict
(X)使用去偏 Lasso 进行预测。
predict_interval
(X[, alpha])使用去偏 Lasso 构建预测置信区间。
使用去偏 Lasso 获取预测的标准误。
score
(X, y[, sample_weight])返回预测的决定系数。
set_params
(**params)设置此估计器的参数。
- coef__interval(alpha=0.05)[源代码]
获取拟合系数的置信区间。
- 参数
alpha (float, default 0.05) – 置信水平。将计算参数分布的 alpha/2 分位数和 (1-alpha/2) 分位数作为置信区间
- 返回
(coef_lower, coef_upper) – 返回系数的下限和上限区间端点。
- 返回类型
数组元组,形状 (n_targets, n_coefs) 或 (n_coefs, )
- fit(X, y, sample_weight=None)[源代码]
拟合多输出去偏 Lasso 模型。
- 参数
X (ndarray 或 scipy.sparse 矩阵, (n_samples, n_features)) – 输入数据。
y (数组, 形状 (n_samples, n_targets) 或 (n_samples, )) – 目标。如有必要,将转换为 X 的 dtype
sample_weight (numpy 数组,形状 [n_samples]) – 每个样本的个体权重。权重将在内部归一化。
- intercept__interval(alpha=0.05)[源代码]
获取拟合截距的置信区间。
- 参数
alpha (float, default 0.05) – 置信水平。将计算参数分布的 alpha/2 分位数和 (1-alpha/2) 分位数作为置信区间
- 返回
(intercept_lower, intercept_upper) – 返回截距的下限和上限区间端点。
- 返回类型
数组元组,大小 (n_targets, ) 或 float 元组
- partial_fit(X, y, sample_weight=None)
为每个输出变量对数据进行增量拟合模型。
- 参数
X (类数组, 稀疏矩阵,形状 (n_samples, n_features)) – 输入数据。
y (类数组, 稀疏矩阵,形状 (n_samples, n_outputs)) – 多输出目标。
sample_weight (类数组,形状 (n_samples,), default=None) – 样本权重。如果为 None,则样本权重相同。仅当底层回归器支持样本权重时支持。
- 返回
self – 返回已拟合的实例。
- 返回类型
- predict(X)[源代码]
使用去偏 Lasso 进行预测。
- 参数
X (ndarray 或 scipy.sparse 矩阵, (n_samples, n_features)) – 样本。
- 返回
prediction – 各点的预测值。
- 返回类型
类数组,形状 (n_samples, ) 或 (n_samples, n_targets)
- predict_interval(X, alpha=0.05)[源代码]
使用去偏 Lasso 构建预测置信区间。
- 参数
X (ndarray 或 scipy.sparse 矩阵, (n_samples, n_features)) – 样本。
alpha (float 在 [0, 1] 中, default 0.05) – 报告区间的总体置信水平。报告 alpha/2, 1-alpha/2 置信区间。
- 返回
(y_lower, y_upper) – 返回下限和上限区间端点。
- 返回类型
数组元组,形状 (n_samples, n_targets) 或 (n_samples, )
- prediction_stderr(X)[源代码]
使用去偏 Lasso 获取预测的标准误。
- 参数
X (ndarray 或 scipy.sparse 矩阵, (n_samples, n_features)) – 样本。
- 返回
prediction_stderr – 在每个预测点输出的每个坐标的标准误。
- 返回类型
类数组,形状 (n_samples, ) 或 (n_samples, n_targets)
- score(X, y, sample_weight=None)
返回预测的决定系数。
决定系数 \(R^2\) 定义为 \((1 - \frac{u}{v})\),其中 \(u\) 是残差平方和
((y_true - y_pred)** 2).sum()
,\(v\) 是总平方和((y_true - y_true.mean()) ** 2).sum()
。最好的可能分数是 1.0,它可以是负数(因为模型可能任意糟糕)。一个始终预测 y 期望值的常数模型,忽略输入特征,将获得 0.0 的 \(R^2\) 分数。- 参数
X (类数组,形状 (n_samples, n_features)) – 测试样本。对于某些估计器,这可能是预计算的核矩阵或通用对象列表,其形状为
(n_samples, n_samples_fitted)
,其中n_samples_fitted
是用于拟合估计器的样本数。y (类数组,形状 (n_samples,) 或 (n_samples, n_outputs)) – X 的真实值。
sample_weight (类数组,形状 (n_samples,), default=None) – 样本权重。
- 返回
score –
self.predict(X)
相对于 y 的 \(R^2\)。- 返回类型
注意
调用回归器上的
score
时使用的 \(R^2\) 分数从 0.23 版本开始使用multioutput='uniform_average'
,以与r2_score()
的默认值保持一致。这会影响所有多输出回归器(除了MultiOutputRegressor
)的score
方法。