2022连享会:Stata高级班

发布时间:2021-12-15 阅读 3826

全新内容,等你解锁


目录


⭕ 本次课程相对于往期课程的变化

高级班的内容是 全新 的,包括:广义线性模型、非参数估计、Lasso、回归控制法等。

⭖ 1. Stata 高级班

  • 时间: 2022 年 1 月 20-22 日 (三天)
  • 方式: 网络直播 + 5 天回放
  • 授课嘉宾: 连玉君 (中山大学)
  • 授课安排
    (1) 授课方式: 幻灯片+Stata16 实操演示,全程电子板书+Stata 演示截图,课后以 PDF 形式分享给学员
    (2) 授课时间: 上午 9:00-12:00,下午 14:30-17:30 (17:30-18:00 答疑)。
    (3) 全程答疑: 由 10 位经验丰富的同学组成的助教团队会在课程群中全程答疑,并对答疑接龙文档进行详细的记录和分类,公布于 课程主页
  • 课程主页: https://gitee.com/arlionn/PX微信版
  • 报名链接: http://junquan18903405450.mikecrm.com/kILLnGa

⭖ 2. 授课嘉宾

连玉君,西安交通大学经济学博士,中山大学岭南学院副教授,博士生导师。已在《China Economic Review》、《经济研究》、《管理世界》、《经济学(季刊)》、《金融研究》、《统计研究》等期刊发表论文 60 余篇。目前已完成 Panel VAR、Panel Threshold、Two-tier Stochastic Frontier 等计量模型的 Stata 实现程序,并编写过几十个小程序,如 lianxh, ihelp, sftt, winsor2, xtbalance, bdiff, ua 等。连玉君老师团队一直积极分享 Stata 应用中的经验,开设了 连享会-主页连享会-直播间连享会-知乎 等专栏,已在微信公众号 (连享会(ID: lianxh_cn)) 分享推文 700 余篇,各平台阅读量逾 1700 万人次。

⭖ 3. 课程导引

改版高级班的想法已经酝酿并准备了一年多,有很多思考,因此,虽然我反复删减,但这个课程介绍似乎仍然有点长。

我想通过梳理实证研究方法的发展趋势,对日后的学习方向和高级班的定位做些解读。

在过去的十年中,实证研究的方法发生了很大的变化。一方面,以「因果推断」为导向,涌现了多种估计方法,如 DID,RDD,匹配,合成控制法,回归控制法,聚束分析法 (bunching) 等;另一方面,得益于大数据和机器学习/统计学习的快速发展,各个领域之间的交叉和融合不断加速。面对此情此景,有些人可以快速适应,而有些人则颇感茫然,甚至担忧自己是否正在被时代抛弃。然而,稍加分析和比对就会发现,上述两个趋势背后并未新增太多令人望尘莫及的高深理论:OLS 仍旧是核心技术,「反事实」则是灵魂,新闯入的好像只有「稀疏性」和「降维」而已。大家会发现,有一些核心的概念和方法频繁地交错出现在各个领域。只要掌握了这些公共的、基础性的方法和理论就能做到「以不变应万变」。

举几个例子:读文献时大家会频繁地见到「交叉验证 (CV)」、「自抽样 (Bootstrap)」、「去一法 (Leave one out, LOO)」这些名词,但论文中往往不会深入解释这些名词的含义和具体的操作方法。因为,作者通常会把这些方法作为「常识」。然而,对于此前未曾接触过这些方法的读者而言,自我怀疑和困惑的心情会始终如影随形,导致对整篇论文的理解大打折扣,甚至不少人会选择中途放弃。事实上,这些方法的原理都很简单,核心思想都是通过「再抽样 (resampling)」来构造经验样本或经验分布,从而完成统计推断。

再比如,在 DID、RDD、SCM、PSM、bunching 等模型中,基本上都会同时采用参数估计和非参数估计,经常会提及「核匹配」、「局部核估计」等名词,其背后其实都对应着「核函数」这个概念,本质也很简单:核函数其实就是一个权重分配机制,离我们的分析对象越近的观察值得到的权重越大,否则越小,文献中使用的数十种核函数虽然形式上很复杂,但其实都近似为 w=1/D (D 表示距离或其函数变换)。考虑的再细致一些就是限制一个范围 h,即所谓的「窗宽 (band width)」,以免纳入那些明显无关的观察值,以提高估计的精度。非参估计有其独特优势:不存在模型误设问题;能更好地捕捉非线性特征,等等。因此,了解非参数估计的核心思想和基本模型设定尤为必要。最近在政策评价中的新秀方法「聚束效应分析 (bunching)」中由于涉及局部概率密度的估计,也主要依赖于非参和半参估计。简言之,不了解半参和非参的基本概念,会导致我们为自己关上了一扇门。

在实证分析尤其是基于微观数据的实证分析中,被解释变量经常是离散变量,此时我们研究的目标将从「条件期望」转变为「条件概率」,换言之,我们此时关注:给定 X 后,Y=1 (如,读博士) 的概率。由于概率的取值范围介于 0 和 1 之间,传统的线性回归模型无法直接使用,但我们可以对线性部分 Xβ 进行转换,以便让转换后的 g(Xβ) 介于 0 和 1 之间。这就衍生出「广义线性回归模型 (GLM)」。大家平时经常听到的 Logit, Probit, Poisson 模型,甚至 Tobit 模型、生存分析模型等都可以在此框架下进行分析。在机器学习/统计学习的主流教科书中,也都会单列一章介绍 GLM,例如 Hastie et al. (2015, PDF, Chapter 2)。虽然其模型形式稍显复杂,边际效应也不再是常数,但却为系数的经济含义提供了更丰富的信息。在 GLM 架构下,各类离散选择模型都很容易理解,进一步扩展到 Lasso 等惩罚回归以便适应高维数据也很顺畅。简言之,GLM 是因果推断和机器学习中的一个重要组件。

至于机器学习,虽然市面上流行的教科书都会依序讲解十几种常用的方法,诸如判别分析、随机森林、神经网络、支持向量机等,但对于经济、金融领域而言,最为常用的是以 Lasso 为核心的惩罚回归,因为它具有变量筛选的功能,在应对高维数据 (p>n) 时非常有用。很多因果推断方法都会纳入 Lasso,如 Lasso-SCM (合成控制法),Lasso-IV,double maching learning (DML) 等。虽然 Lasso 在技术上有一定的复杂度,但其基本思想却容易接受,Stata 中的实操也非常方便。

3.1 专题介绍(Stata 高级班)

此次高级班共包括六讲:B1 将在广义线性模型架构下介绍 Logit, Probit, Count Data 等离散选择模型,这些模型是随后各讲的基础;B2 从选择性偏差问题入手介绍自选择模型和处理效应模型,它们常用于应对内生性问题;B3 介绍非参数估计的基本思想和估计方法;B4 介绍 Bootstrap, 交叉验证等统计推断he模型筛选方法,是 B5 和 B6 的基础。最后两讲介绍惩罚回归两个非常相似的反事实估计方法。

B1. 广义线性模型 (GLM)

  • 从条件期望到条件概率
  • 估计方法:MLE
  • Logit, Probit 和计数模型 (Count Data models)
  • 广义线性回归模型 (GLM)
  • 边际效应分析和解读
  • Stata 应用:范文 2 篇

B2. 样本选择与自选择 (selection-treatment)

  • 截断、截堵与选择性偏差
  • Tobit 模型
  • Heckman 选择模型
  • 处理效应模型
  • 两部模型和双栏模型
  • Stata 实操:范文 2 篇

B3. 非参数和半参数估计 (NP-SNP)

  • 分布函数和密度函数
  • 核函数
  • 局部线性回归
  • 局部多项式回归
  • partial linear regression (PLS)
  • 应用:
    • AP1:收入分配的时序变化
    • AP2:断点回归分析 (RDD)
    • AP3:核匹配 (Kernel matching)

B4. 基于再抽样的统计推断方法

  • Bootstrap (自抽样)
  • Jackknife (去一法, LOO)
  • 交叉验证 (CV)
  • 变量筛选规则:AIC, BIC, MBIC
  • 应用:
    • AP1:组间系数差异检验、面板门槛效应检验
    • AP2:回归控制法
    • AP3:Lasso-合成控制法

B5. 惩罚回归 (PR-Lasso)

  • Lasso 已经成为变量筛选的一个重要手段。
  • 高维数据/大数据的挑战;
  • 偏差-方差权衡
  • 岭回归、Lasso、弹性网、自适应 Lasso
  • 扩展 Lasso 模型
    • adaptive Lasso
    • IV - Lasso
    • Post - Lasso
    • Double robust regression (DR)
    • Double Machine Learning (DML)
  • Stata 实操

B6. 回归控制法 (RCM) 与合成控制法 (SCM)

  • 回归控制法和合成控制法简介
  • Lasso-RCM:基于 Lasso 等惩罚回归的 RCM
  • Lasso-SCM:基于 Lasso 等惩罚回归的 SCM
  • RCM 与 SCM 的对比
  • Stata 范例:
    • Abadie et al. (2010)
    • Hisao (2012)
    • Hsiao and Zhou (2019)
    • Chen and Yan (2021)

⏳ 4. 报名和缴费信息

  • 主办方: 太原君泉教育咨询有限公司
  • 标准费用:初级班/高级班/论文班单班报名 3700 元/人
  • 优惠方案
    • 现场班老学员单班报名: 9折,3330元/人
    • 会员单班报名: 85折,3145元/人
    • 三班任意两班组合报名: 6100 元/人
    • 全程班报名: 9000 元/人

赠送课程:
A. 我的特斯拉-实证研究设计
B. 动态面板数据模型
C. 我的甲壳虫-论文精讲与重现

赠送方式: 单班报名可在上述课程中选其一,任意两班组合报名可选其二,全程报名全赠。

  • 温馨提示: 以上各项优惠不能叠加使用。
  • 联系方式:
    • 邮箱:wjx004@sina.com
    • 王老师:18903405450 (微信同号)
    • 李老师:18636102467 (微信同号)

特别提示:

为保护讲师的知识产权和您的账户安全,系统会自动在您观看的视频中嵌入您的「用户名」信息,每个账号只能锁定一台设备进行观看,以切实保护您的权益。

报名链接: http://junquan18903405450.mikecrm.com/kILLnGa

⏩ 长按/扫描二维码报名:

缴费方式

方式 1:对公转账

  • 户名:太原君泉教育咨询有限公司
  • 账号:35117530000023891 (山西省太原市晋商银行南中环支行)
  • 温馨提示: 对公转账时,请务必提供「汇款人姓名-单位」信息,以便确认。

方式 2:扫码支付

温馨提示: 扫码支付后,请将「付款记录」截屏发给王老师-18903405450(微信同号)

⚽ 5. 助教招聘

说明和要求

  • 名额: 15 名 (初级、高级和论文班各 5 名)
  • 任务:
    • A. 课前准备:协助完成 3 篇介绍 Stata 和计量经济学基础知识的文档;
    • B. 开课前答疑:协助学员安装课件和软件,在微信群中回答一些常见问题;
    • C. 上课期间答疑:针对前一天学习的内容,在微信群中答疑 (8:00-9:00,19:00-22:00);
    • Note: 下午 5:30-6:00 的课后答疑由主讲教师负责。
  • 要求: 热心、尽职,熟悉 Stata 的基本语法和常用命令,能对常见问题进行解答和记录
  • 特别说明: 往期按期完成任务的助教可以直接联系连老师直录。
  • 截止时间: 2021 年 12 月 31 日 (将于 1 月 3 日公布遴选结果于 课程主页,及 连享会主页 lianxh.cn)

申请链接: https://www.wjx.top/vj/OT8gdao.aspx

扫码填写助教申请资料:

课程主页: https://gitee.com/arlionn/PX