Stata连享会 主页 || 视频 || 推文 || 知乎 || Bilibili 站
温馨提示: 定期 清理浏览器缓存,可以获得最佳浏览体验。
New!
lianxh
命令发布了:
随时搜索推文、Stata 资源。安装:
. ssc install lianxh
详情参见帮助文件 (有惊喜):
. help lianxh
连享会新命令:cnssc
,ihelp
,rdbalance
,gitee
,installpkg
⛳ Stata 系列推文:
作者:王颖 (四川大学)
邮箱:wangyingchn@outlook.com
编者按:本文主要整理自下文,特此致谢!
Source:Athey, S., & Wager, S. (2019). Estimating treatment effects with causal forests: An application. Observational Studies, 5(2), 37-51. -PDF- -Replication File-
目录
本文将因果森林应用于 National Study of Learning Mindsets 数据集。面对可能存在选择偏差和聚类偏误的数据,因果森林能够通过估计倾向得分和使用稳健的聚类方法较好的解决这两个挑战。
数据背景:国家学习心态研究 (National Study of Learning Mindsets) 是一项在美国高中进行的研究。这项研究对学生进行心态干预,向学生灌输成长型学习心态 (相对与固定型学习心态),并评估这种干预对学生成绩的影响。
数据来源:来自 76 所美国高中 10,391 位学生的调查研究。
研究问题:
变量说明:
变量名称 | 变量类型 | 变量含义 | 测量 |
---|---|---|---|
Y | 连续变量 | 学生成绩 | 学生的成绩得分 |
W (Z) | 0-1变量 | 是否接受学习心态干预 | 0=接受干预,1=接受干预 |
S3 | 连续变量 | 学生对未来成功的期望,是过往成绩的代理变量 | 学生自我报告,7点量表 |
C1 | 分类变量 | 学生的种族/民族 | 共 15 个水平,用 1-15 表示 |
C2 | 分类变量 | 学生的性别 | 共 2 个水平,用 1-2 表示 |
C3 | 0-1 变量 | 学生是否是家庭中第一个上大学的 | 共 2 个水平,用 0-1 表示 |
XC | 分类变量 | 学校所在城市的类别 | 共 5 个水平,用 0-4 表示 |
X1 | 连续变量 | 学校学生的固定型心态水平 | 学校层面的变量,该学校学生的固定型心态得分均值 |
X2 | 连续变量 | 学校学生的平均成绩水平 | 学校层面的变量,该学校学生的平均成绩得分 |
X3 | 连续变量 | 学校中的种族/少数民族构成 | 学校层面的变量,该学校黑人、拉丁裔等所占的比例 |
X4 | 连续变量 | 学校的贫困集中度 | 学校层面的变量,该学校来自收入低于贫困线的家庭的学生百分比 |
X5 | 连续变量 | 学校规模 | 学校层面的变量,该学校四个年级的学生总数 |
需要注意的是,
在因果推断中,要估计因果效应,需要满足条件独立性假设。即在给定的协变量 Xi 下,个体是否接受干预分配 (Wi) 与潜在的结果 Y 不相关。然而,通过数据发现,本文中的学习心态研究并不满足该假设,因为成功期望更高的学生 (S3,以往成绩的代理变量) 更可能接受干预,存在选择偏差的问题。当该假设不满足时,需要采用方法来消除这种潜在的干扰。
在因果森林中,通过估计倾向得分的方式来处理这个问题。倾向得分是某个个体接受干预的可能性得分。具体而言,在分析过程中考虑两个调整。一是用结果变量 Y 的真实值 (即观测值) 减去 Y 的期望值 (即无论个体是否接受干预时可能的 Y 值);二是用处理变量 W 的真实值减去倾向得分。
总结而言,本文的数据集中可能存在选择偏差问题,处理方法是在因果森林中估计倾向得分,从而得到更加稳健的结果。
本文的数据中各个样本不是独立的,样本之间可能存在关联。由于学生来自 76 个学校,且不同的学校可能存在较大的异质性,可能存在有一些不可观测的学校层面变量影响干预效果,因此本文假设同一所学校内各个学生的结果变量 Yi 之间是相关的,并采用稳健的聚类分析 (cluster-robust analysis)。
当涉及来自不同群体的样本时,需要考虑以下两个问题:
在本研究中,我们希望结果能推广到其他学校,且赋予每个学校一样的权重,即希望模型能够准确预测一个来自新学校的新学生的结果。
因果森林是将随机森林应用到异质处理效应估计上的一种算法。首先看看如何在随机森林中实现聚类稳健的分析。传统的随机森林,先随机抽取一组样本,然后构造树模型,重复多次构建多个树模型形成森林,最后进行预测。这里的预测使用袋外预测 (out-of-bag prediction),即用于预测的样本是训练集之外的样本。
而要考虑聚类效应时,并不是随机抽取样本。以本文的数据为例,先从 76 所学校中随机抽取 x 个学校,然后随机从选定的 x 个学校中每个学校抽取 k 个样本形成 x*k 个样本构建训练集,基于该训练集构造树模型,并重复多次构建森林,最后做出预测。
同样,考虑到学校内部可能存在的关联,这里的预测使用类外预测,即用于预测的样本是来自用于训练的 x 个学校之外的样本。通过以上方法,可以在随机森林中考虑聚类效应,进行聚类稳健的分析。
总结而言,本文的数据集中可能存在聚类偏误问题。处理方法是,在构建随机森林的抽样、预测两个阶段都进行调整,进行稳健的聚类分析。同时,为了使结果能够外推到其他类别,对每个类别都赋予一样的权重。
在了解数据背景及要解决的问题后,使用 R 语言进行数据分析,通过 grf
包构建因果森林模型。
首先是数据准备,包括数据读取、构造变量等。
# 基本设置
set.seed(1) # 设定随机数
rm(list = ls()) # 清空工作空间
# 安装相关包
if (!require("pacman")) install.packages("pacman")
pacman::p_load(
grf # 用于构造因果森林模型
)
# 数据预处理
data.all <- read.csv('synthetic_data.csv')
data.all$schoolid = factor(data.all$schoolid)
DF <- data.all[,-1]
school.id = as.numeric(data.all$schoolid) # 提取 school.id 作为后续聚类的标签
school.mat = model.matrix(~ schoolid + 0, data = data.all)
school.size = colSums(school.mat)
# 准备用于构建因果森林模型的数据集,其中 W 为处理变量,Y 结果变量,X 包含所有协变量
W <- DF$Z
Y <- DF$Y
X.raw <- DF[, -(1:2)]
C1.exp <- model.matrix(~ factor(X.raw$C1) + 0) # 转化为哑变量
XC.exp <- model.matrix(~ factor(X.raw$XC) + 0)
X <- cbind(X.raw[, -which(names(X.raw) %in% c("C1", "XC"))], C1.exp, XC.exp)
其次,构建因果森林模型。
# 构建结果变量 Y 和处理变量 W 的预测模型。基于 school.id 聚类,且每个类别权重一样
Y.forest <- regression_forest(X, Y, clusters = school.id, equalize.cluster.weights = TRUE)
Y.hat <- predict(Y.forest)$predictions
W.forest <- regression_forest(X, W, clusters = school.id, equalize.cluster.weights = TRUE)
W.hat <- predict(W.forest)$predictions
# 初步构建因果森林模型
cf.raw <- causal_forest(X, Y, W,
Y.hat = Y.hat, W.hat = W.hat,
clusters = school.id,
equalize.cluster.weights = TRUE)
# 原文中 samples_per_cluster 的参数在新版本 grf 包中已经取消,通过 equalize.cluster.weights 设置。
# 选择重要特征,再次构建因果森林模型
varimp <- variable_importance(cf.raw)
selected.idx <- which(varimp > mean(varimp))
cf <- causal_forest(X[,selected.idx], Y, W,
Y.hat = Y.hat, W.hat = W.hat,
clusters = school.id,
equalize.cluster.weights = TRUE,
tune.parameters = "all")
# 进行预测,得到估计值
tau.hat <- predict(cf)$predictions
基于因果森林模型,估计平均处理效应 (average treatment effect,ATE)。结果显示,心态干预的平均处理效应是积极的 (ATE 为 0.247)。
ATE <- average_treatment_effect(cf)
paste("95% CI for the ATE:", round(ATE[1], 3),
"+/-", round(qnorm(0.975) * ATE[2], 3))
接下来,估计平均处理效应的整体异质性,即心态干预的处理效应是否有显著的异质性,通过两种方法检验。第一种方法,基于估计值的中位数分为高低两组,比较高组和低组的 ATE 是否有显著差异。结果显示,两组之间的差异很小 (差值为 0.053)。
high_effect <- tau.hat > median(tau.hat)
ate.high <- average_treatment_effect(cf, subset = high_effect)
ate.low <- average_treatment_effect(cf, subset = !high_effect)
paste("95% CI for difference in ATE:",
round(ate.high[1] - ate.low[1], 3), "+/-",
round(qnorm(0.975) * sqrt(ate.high[2]^2 + ate.low[2]^2), 3))
第二种方法,是通过最佳线性预测 (best linear) 的方法,检验处理效应的异质性是否显著。结果显示,异质性并不显著 (
test_calibration(cf)
虽然整体异质性分析的结果不显著,但不代表不存在异质性。因此,进一步分析 X1 和 X2 对平均处理的影响。首先,基于 X1 的中位数分为高低两组比较。结果显示,平均处理效应在 X1 的两个水平上有显著性差异 (
dr.score = tau.hat + W / cf$W.hat *
(Y - cf$Y.hat - (1 - cf$W.hat) * tau.hat) -
(1 - W) / (1 - cf$W.hat) * (Y - cf$Y.hat + cf$W.hat * tau.hat)
school.score = t(school.mat) %*% dr.score / school.size
# 基于 X1 中位数分为高低两组比较
school.X1 = t(school.mat) %*% X$X1 / school.size
high.X1 = school.X1 > median(school.X1)
t.test(school.score[high.X1], school.score[!high.X1])
然后,分析 X2 的影响,将 X2 划分为两组或三组比较。结果都显示,平均处理效应在 X2 上没有显著的异质性。
# 基于 X2 中位数分为高低两组比较
school.X2 = (t(school.mat) %*% X$X2) / school.size
high.X2 = school.X2 > median(school.X2)
t.test(school.score[high.X2], school.score[!high.X2])
# 分为三组比较
school.X2.levels = cut(school.X2,
breaks = c(-Inf, quantile(school.X2, c(1/3, 2/3)), Inf))
summary(aov(school.score ~ school.X2.levels))
由于 X1 和 X2 都是学校层面的变量,如果只关注学校层面的变量是否可能更准确呢?文章进一步探索,只使用学校层面的协变量构建模型,结果与上面的结果一致。同时,文章使用学校层面的变量进行线性回归,发现只有 X1 在 0.10 的水平上显著。因此,如果考虑更多学校层面的变量,X1 的影响可能也是不存在的。
根据前文的说明,由于数据可能存在潜在的选择偏差和聚类偏误问题,前面的因果森林分析考虑了这两个问题,使用了正交化 (即通过估计倾向得分,使得数据满足独立性假设),以及稳健的聚类方法。在补充分析中,作者比较了使用和不使用这两个处理方法的模型,以突出这两种方法的价值。
前文的分析基于 school.id
进行聚类,且每个学校权重一致,这里我们不考虑聚类,重新训练因果森林模型。
# 不考虑聚类,重新训练因果森林模型
cf.noclust = causal_forest(X[,selected.idx], Y, W,
Y.hat = Y.hat, W.hat = W.hat,
tune.parameters = "all")
ATE.noclust = average_treatment_effect(cf.noclust)
paste("95% CI for the ATE:", round(ATE.noclust[1], 3),
"+/-", round(qnorm(0.975) * ATE.noclust[2], 3))
test_calibration(cf.noclust)
结果显示,处理效应具有显著的异质性。然而,这种显著的异质性主要是由于学校产生的,没有考虑到不同的学校内学生的相关性,不同学校间的差异很大,而且这种学校效应是特殊的,无法通过协变量来解释。因此,如果要将模型应用到新学校,就需要按学校分组,而此时学校之间的异质性就会像噪音一样干扰结果。
前面的因果森林中,基于协变量进行了倾向得分估计,这里我们不估计倾向得分,重新训练因果森林模型,并比较结果的差异。
# 不估计倾向得分 (即 W.hat)
cf.noprop = causal_forest(X[,selected.idx], Y, W,
Y.hat = Y.hat, W.hat = mean(W),
tune.parameters = "all",
equalize.cluster.weights = TRUE,
clusters = school.id)
tau.hat.noprop = predict(cf.noprop)$predictions
ATE.noprop = average_treatment_effect(cf.noprop)
paste("95% CI for the ATE:", round(ATE.noprop[1], 3),
"+/-", round(qnorm(0.975) * ATE.noprop[2], 3))
结果显示,估计了倾向得分和未估计倾向得分的模型结果差异不大。原因可能是影响倾向的因素 (S3) 同时也是预测结果变量的重要因素,也就是说,在这个数据中,没有只对干预分配 (倾向) 有显著影响的协变量。
因此,为了进一步突出因果森林中估计倾向得分的价值,作者利用了新的合成数据来比较估计倾向得分与不估计倾向得分的模型。结果显示,两个模型估计的结果有很大差异,估计倾向得分的模型计算的 ATE 值为 0.125,而不估计倾向得分的模型 ATE 为 0.220。也就是说,如果数据中存在影响干预倾向的协变量,那么不考虑倾向得分可能会导致结果有很大的偏差。
# 生成新的数据
n.synth = 1000
p.synth = 10
X.synth = matrix(rnorm(n.synth * p.synth), n.synth, p.synth)
W.synth = rbinom(n.synth, 1, 1 / (1 + exp(-X.synth[,1])))
Y.synth = 2 * rowMeans(X.synth[,1:6]) + rnorm(n.synth)
# 结果变量与处理变量的预测模型
Y.forest.synth = regression_forest(X.synth, Y.synth)
Y.hat.synth = predict(Y.forest.synth)$predictions
W.forest.synth = regression_forest(X.synth, W.synth)
W.hat.synth = predict(W.forest.synth)$predictions
# 考虑倾向得分的因果森林模型
cf.synth = causal_forest(X.synth, Y.synth, W.synth,
Y.hat = Y.hat.synth, W.hat = W.hat.synth)
ATE.synth = average_treatment_effect(cf.synth)
paste("95% CI for the ATE:", round(ATE.synth[1], 3),
"+/-", round(qnorm(0.975) * ATE.synth[2], 3))
# 不考虑倾向得分的因果森林模型
cf.synth.noprop = causal_forest(X.synth, Y.synth, W.synth,
Y.hat = Y.hat.synth, W.hat = mean(W.synth))
ATE.synth.noprop = average_treatment_effect(cf.synth.noprop)
paste("95% CI for the ATE:", round(ATE.synth.noprop[1], 3),
"+/-", round(qnorm(0.975) * ATE.synth.noprop[2], 3))
本文将因果森林应用到国家学习心态研究的数据集上,以分析异质处理效应。在这个数据集中,面临两个分析的挑战,一是样本受到干预分配的倾向不一样,二是可能受到聚类结果的影响。因果森林能够解决这两个挑战,一是通过估计倾向得分来调整,二是通过稳健的聚类分析来调整。
在本文的数据中,稳健的聚类分析有很明显的作用,如果不考虑聚类效应可能会产生有误的异质性分析结果。因此,在考虑异质处理效应时,需要更小心、更深入的讨论聚类问题。更好的理解进行聚类数据的异质处理效应估计的不同方法是很有意义的。
Note:产生如下推文列表的 Stata 命令为:
lianxh 因果推断 随机森林, m
安装最新版lianxh
命令:
ssc install lianxh, replace
免费公开课
最新课程-直播课
专题 | 嘉宾 | 直播/回看视频 |
---|---|---|
⭐ 最新专题 | 文本分析、机器学习、效率专题、生存分析等 | |
研究设计 | 连玉君 | 我的特斯拉-实证研究设计,-幻灯片- |
面板模型 | 连玉君 | 动态面板模型,-幻灯片- |
面板模型 | 连玉君 | 直击面板数据模型 [免费公开课,2小时] |
⛳ 课程主页
⛳ 课程主页
关于我们
课程, 直播, 视频, 客服, 模型设定, 研究设计, stata, plus, 绘图, 编程, 面板, 论文重现, 可视化, RDD, DID, PSM, 合成控制法
等
连享会小程序:扫一扫,看推文,看视频……
扫码加入连享会微信群,提问交流更方便
✏ 连享会-常见问题解答:
✨ https://gitee.com/lianxh/Course/wikis
New!
lianxh
和songbl
命令发布了:
随时搜索连享会推文、Stata 资源,安装命令如下:
. ssc install lianxh
使用详情参见帮助文件 (有惊喜):
. help lianxh