forked from perlatex/R_for_Data_Science
-
Notifications
You must be signed in to change notification settings - Fork 0
/
tidystats_lm.Rmd
703 lines (476 loc) · 19 KB
/
tidystats_lm.Rmd
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
# 线性回归 {#tidystats-lm}
线性模型是数据分析中最常用的一种分析方法。最基础的往往最深刻。
```{r lm-1, message = FALSE, warning = FALSE}
library(tidyverse)
```
## 从一个案例开始
这是一份1994年收集1379个对象关于收入、身高、教育水平等信息的数据集。数据可以在这里[下载](https://raw.githubusercontent.com/perlatex/R_for_Data_Science/master/demo_data/wages.csv)。
首先,我们下载后导入数据
```{r lm-2, message = FALSE, warning = FALSE}
wages <- read_csv("./demo_data/wages.csv")
wages %>%
head()
```
### 缺失值检查
一般情况下,拿到一份数据,首先要了解数据,知道每个变量的含义,
```{r lm-3}
wages %>% colnames()
```
同时检查数据是否有缺失值,这点很重要。在R中 NA(not available,不可用)表示缺失值, 比如可以这样检查是否有缺失值。
```{r lm-4}
wages %>%
summarise(
earn_na = sum(is.na(earn)),
height_na = sum(is.na(height)),
sex_na = sum(is.na(sex)),
race_na = sum(is.na(race)),
ed_na = sum(is.na(ed)),
age_na = sum(is.na(age))
)
```
程序员都是偷懒的,所以也可以写的简便一点。大家在学习的过程中,也会慢慢的发现tidyverse的函数很贴心,很周到。
```{r lm-5}
wages %>%
summarise_all(
~ sum(is.na(.))
)
```
当然,也可以用`purrr::map()`的方法。这部分我会在后面的章节中逐步介绍。
```{r lm-6}
wages %>%
map_df(~ sum(is.na(.)))
```
### 变量简单统计
然后探索下每个变量的分布。比如调研数据中男女的数量分别是多少?
```{r lm-7}
wages %>% count(sex)
```
男女这两组的身高均值分别是多少?收入的均值分别是多少?
```{r lm-8}
wages %>%
group_by(sex) %>%
summarise(
n = n(),
mean_height = mean(height),
mean_earn = mean(earn)
)
```
也有可以用可视化的方法,呈现男女收入的分布情况
```{r lm-9}
wages %>%
ggplot(aes(x = earn, color = sex)) +
geom_density()
```
大家可以自行探索其他变量的情况。现在提出几个问题,希望大家带着这些问题去探索:
1. 长的越高的人挣钱越多?
2. 是否男性就比女性挣的多?
3. 影响收入最大的变量是哪个?
4. 怎么判定我们建立的模型是不是很好?
## 线性回归模型
**长的越高的人挣钱越多?**
要回答这个问题,我们先介绍线性模型。顾名思义,就是认为$x$和$y$之间有线性关系,数学上可以写为
$$
\begin{aligned}
y &= \alpha + \beta x + \epsilon \\
\epsilon &\in \text{Normal}(\mu, \sigma)
\end{aligned}
$$
$\epsilon$ 代表误差项,它与$x$ 无关,且服从正态分布。
建立线性模型,就是要估计这里的系数$\hat\alpha$和$\hat\beta$,即截距项和斜率项。常用的方法是最小二乘法(ordinary least squares (OLS) regression):
就是我们估算的$\hat\alpha$和$\hat\beta$, 要使得残差的平方和最小,即$\sum_i(y_i - \hat y_i)^2$或者叫$\sum_i \epsilon_i^2$最小。
```{r lm-10, out.width = '85%', echo = FALSE}
knitr::include_graphics("images/best_fit.png")
```
当然,数据量很大,手算是不现实的,我们借助R语言代码吧
## 使用`lm()` 函数
用R语言代码(建议大家先`?lm`看看帮助文档),
`lm`参数很多, 但很多我们都用不上,所以我们只关注其中重要的两个参数
```{r lm-11, eval = FALSE}
lm(formula = y ~ x, data)
```
`lm(y ~ x, data)` 是最常用的线性模型函数(lm是linear model的缩写)。参数解释说明
```{block lm-12, type="danger"}
* formula:指定回归模型的公式,对于简单的线性回归模型`y ~ x`.
* ~ 符号:代表“预测”,可以读做“y由x预测”。有些学科不同的表述,比如下面都是可以的
- `response ~ explanatory`
- `dependent ~ independent`
- `outcome ~ predictors`
* data:代表数据框,数据框包含了响应变量和独立变量
```
在运行`lm()`之前,先画出身高和收入的散点图(记在我们想干什么,寻找身高和收入的关系)
```{r lm-13}
wages %>%
ggplot(aes(x = height, y = earn)) +
geom_point()
```
等不及了,就运行代码吧
```{r lm-14}
mod1 <- lm(
formula = earn ~ height,
data = wages
)
```
这里我们将`earn`作为响应变量,`height`为预测变量。`lm()`返回赋值给`mod1`. `mod1`现在是个什么东东呢? mod1是一个叫`lm object`或者叫`类`的东西,
```{r lm-15}
names(mod1)
```
我们打印看看,会发生什么
```{r lm-16}
print(mod1)
```
这里有两部分信息。首先第一部分是我们建立的模型;第二部分是R给出了截距($\alpha = -126532$)和斜率($\beta = 2387$). 也就是说我们建立的线性回归模型是
$$
\hat y = -126532 + 2387 \; x
$$
查看详细信息
```{r lm-17}
summary(mod1)
```
查看拟合值
```{r lm-18}
# predict(mod1) # predictions at original x values
wages %>% modelr::add_predictions(mod1)
```
查看残差值
```{r lm-19}
# resid(mod1)
wages %>%
modelr::add_predictions(mod1) %>%
modelr::add_residuals(mod1)
```
<!-- tidyverse框架下,喜欢**数据框**的统计结果,因此,可用broom的`tidy()`函数将系数转换为数据框的形式 -->
<!-- ```{r} -->
<!-- broom::tidy(mod1) -->
<!-- ``` -->
<!-- 也可以用broom的`glance()`函数**规整**模型的信息 -->
<!-- ```{r} -->
<!-- broom::glance(mod1) -->
<!-- ``` -->
## 模型的解释
**建立一个`lm`模型是简单的,然而最重要的是,我们能解释这个模型。**
`mod1`的解释:
- 对于斜率$\beta = 2387$意味着,当一个人的身高是68英寸时,他的预期收入$earn = -126532 + 2387 \times 68= 35806$ 美元, 换个方式说,身高$height$每增加一个1英寸, 收入$earn$会增加2387美元。
- 对于截距$\alpha = -126532$,即当身高为0时,期望的收入值-126532。呵呵,人的身高不可能为0,所以这是一种极端的理论情况,现实不可能发生。
```{r lm-20}
wages %>%
ggplot(aes(x = height, y = earn)) +
geom_point(alpha = 0.25) +
geom_smooth(method = "lm", se = FALSE)
```
<!-- $$ -->
<!-- \begin{aligned} -->
<!-- y &= \alpha + \beta x + \epsilon \\ -->
<!-- \epsilon &\in \text{Normal}(\mu, \sigma) -->
<!-- \end{aligned} -->
<!-- $$ -->
## 多元线性回归
刚才讨论的单个预测变量`height`,现在我们增加一个预测变量`ed`,稍微扩展一下我们的一元线性模型,就是多元回归模型
$$
\begin{aligned}
earn &= \alpha + \beta_1 \text{height} + \beta_2 \text{ed} +\epsilon \\
\end{aligned}
$$
R语言代码实现也很简单,只需要把变量`ed`增加在公式的右边
```{r lm-21}
mod2 <- lm(earn ~ height + ed, data = wages)
```
同样,我们打印`mod2`看看
```{r lm-22}
mod2
```
大家试着解释下`mod2`. `r emo::ji("smile")`
## 更多模型
```{r lm-23, eval=FALSE}
lm(earn ~ sex, data = wages)
lm(earn ~ ed, data = wages)
lm(earn ~ age, data = wages)
lm(earn ~ height + sex, data = wages)
lm(earn ~ height + ed, data = wages)
lm(earn ~ height + age, data = wages)
lm(earn ~ height + race, data = wages)
lm(earn ~ height + sex + ed, data = wages)
lm(earn ~ height + sex + age, data = wages)
lm(earn ~ height + sex + race, data = wages)
lm(earn ~ height + ed + age, data = wages)
lm(earn ~ height + ed + race, data = wages)
lm(earn ~ height + age + race, data = wages)
lm(earn ~ height + sex + ed + age, data = wages)
lm(earn ~ height + sex + ed + race, data = wages)
lm(earn ~ height + sex + age + race, data = wages)
lm(earn ~ height + ed + age + race, data = wages)
lm(earn ~ sex + ed + age + race, data = wages)
lm(earn ~ height + sex + ed + age + race, data = wages)
```
## 变量重要性
哪个变量对收入的影响最大?
```{r lm-24, eval=FALSE}
lm(earn ~ height + ed + age, data = wages)
```
- 方法一,变量都做**标准化处理**后,再放到模型中计算,然后对比系数的绝对值
```{r lm-25}
fit <- wages %>%
mutate_at(vars(earn, height, ed, age), scale) %>%
lm(earn ~ 1 + height + ed + age, data = .)
summary(fit)
```
- 方法二,通过比较模型参数的t-statistic的绝对值,可以考察[参数的重要程度](https://topepo.github.io/caret/variable-importance.html)
```{r lm-26}
caret::varImp(fit)
```
## 可能遇到的情形
根据同学们的建议,模型中涉及统计知识,留给统计老师讲,我们这里是R语言课,应该讲代码。
因此,这里再介绍几种线性回归中遇到的几种特殊情况
### 截距项
包含截距,以下两者是等价的
```{r lm-27, eval=FALSE}
lm(earn ~ 1 + height, data = wages)
lm(earn ~ height, data = wages)
```
去掉截距,以下两者是等价的
```{r lm-271, eval=FALSE}
lm(earn ~ height - 1, data = wages)
lm(earn ~ 0 + height, data = wages)
```
不包含截距项,实际上就是强制通过原点(0,0),这样做很大程度上影响了斜率。
### 只有截距项
```{r lm-28}
lm(earn ~ 1, data = wages)
```
只有截距项,实质上就是计算y变量的均值
```{r lm-29}
wages %>%
summarise(
mean_wages = mean(earn)
)
```
### 分类变量
race变量就是数据框wages的一个分类变量,代表四个不同的种族。用分类变量做回归,本质上是各组之间的进行比较。
```{r lm-30}
wages %>% distinct(race)
```
```{r lm-31}
wages %>%
ggplot(aes(x = race, y = earn, fill = race)) +
geom_boxplot(position = position_dodge()) +
scale_y_continuous(limits = c(0, 20000))
```
以分类变量作为解释变量,做线性回归
```{r lm-32}
mod3 <- lm(earn ~ race, data = wages)
mod3
```
tidyverse框架下,喜欢**数据框**的统计结果,因此,可用broom的`tidy()`函数将**模型输出**转换为数据框的形式
```{r lm-33}
broom::tidy(mod3)
```
我们看到输出结果,只有race_hispanic、 race_other和race_white三个系数和Intercept截距,race_black去哪里了呢?
事实上,race变量里有4组,回归时,选择black为**基线**,hispanic的系数,可以理解为由black**切换**到hispanic,引起earn收入的变化(效应)
- 对 black 组的估计,`earn = 28372.09 = 28372.09`
- 对 hispanic组的估计,`earn = 28372.09 + -2886.79 = 25485.30`
- 对 other 组的估计,`earn = 28372.09 + 3905.32 = 32277.41`
- 对 white 组的估计,`earn = 28372.09 + 4993.33 = 33365.42`
<!-- Linear regression with a categorical variable, is the equivalent -->
<!-- of ANOVA (Analysis of Variance) -->
```{block lm-34, type="danger"}
分类变量的线性回归本质上就是方差分析
```
第 \@ref(tidystats-aov)章专题讨论方差分析
### 因子变量
hispanic组的估计最低,适合做基线,因此可以将race转换为因子变量,这样方便调整因子先后顺序
```{r lm-35}
wages_fct <- wages %>%
mutate(race = factor(race, levels = c("hispanic", "white", "black", "other"))) %>%
select(earn, race)
head(wages_fct)
```
`wages_fct`替换`wages`,然后建立线性模型
```{r lm-36}
mod4 <- lm(earn ~ race, data = wages_fct)
broom::tidy(mod4)
```
以hispanic组作为基线,各组系数也调整了,但加上截距后,实际值是没有变的。
大家可以用sex变量试试看
```{r lm-37, eval=FALSE}
lm(earn ~ sex, data = wages)
```
### 一个分类变量和一个连续变量
如果预测变量是一个分类变量和一个连续变量
```{r lm-38}
mod5 <- lm(earn ~ height + sex, data = wages)
coef(mod5)
```
- `height = 879.424` 当sex保持不变时,height变化引起的earn变化
- `sexmale = 16874.158` 当height保持不变时,sex变化(female变为male)引起的earn变化
```{r lm-39}
p1 <- wages %>%
ggplot(aes(x = height, y = earn, color = sex)) +
geom_point(alpha = 0.1) +
geom_line(aes(y = predict(mod5))) +
coord_cartesian(ylim = c(0, 100000))
p1
```
### 偷懒的写法
. is shorthand for "everything else."
```{r lm-40, eval=FALSE}
lm(earn ~ height + sex + race + ed + age, data = wages)
lm(earn ~ ., data = wages)
lm(earn ~ height + sex + race + ed, data = wages)
lm(earn ~ . - age, data = wages)
```
R 语言很多时候都出现了`.`,不同的场景,含义是不一样的。我会在后面第 \@ref(tidyverse-dot) 章专门讨论这个问题, 这是一个非常重要的问题
### 交互项
```{r lm-41, eval=FALSE}
lm(earn ~ height + sex + height:sex, data = wages)
lm(earn ~ height * sex, data = wages)
lm(earn ~ (height + sex)^2, data = wages)
```
```{r lm-42, eval=FALSE}
lm(earn ~ height:sex, data = wages)
lm(earn ~ height:sex:race, data = wages)
```
```{r lm-43}
mod6 <- lm(earn ~ height + sex + height:sex, data = wages)
coef(mod6)
```
<!-- - For men, a 1" increase in height is associated with a gain in earnings of 1265.92 -->
<!-- - For women, a 1" increase in height is associated with a gain in earnings of1265.92 + (-701.41) = 564.51 -->
- 对于女性,height增长1个单位,引起earn的增长`564.5102`
- 对于男性,height增长1个单位,引起earn的增长`564.5102 + 701.4065 = 1265.92`
```{r lm-44}
p2 <- wages %>%
ggplot(aes(x = height, y = earn, color = sex)) +
geom_point(alpha = 0.1) +
geom_line(aes(y = predict(mod6))) +
coord_cartesian(ylim = c(0, 100000))
p2
```
注意,没有相互项和有相互项的区别
```{r lm-45, out.width= "100%"}
library(patchwork)
combined <- p1 + p2 & theme(legend.position = "bottom")
combined + plot_layout(guides = "collect")
```
### 虚拟变量
交互项,有点不好理解?我们再细致说一遍
```{r lm-46, eval = F}
earn ~ height + sex + height:sex
```
对应的数学表达式
$$
\begin{aligned}
\text{earn} &= \alpha + \beta_1 \text{height} + \beta_2 \text{sex} +\beta_3 \text{(height*sex)}+ \epsilon \\
\end{aligned}
$$
我们要求出其中的$\alpha, \beta_1, \beta_2, \beta_3$,事实上,分类变量在R语言代码里,会转换成0和1这种**虚拟变量**,然后再计算。类似
```{r lm-47}
wages %>% mutate(sexmale = if_else(sex == "female", 0, 1))
```
那么上面的公式变为
$$
\begin{aligned}
\text{earn} &= \alpha + \beta_1 \text{height} + \beta_2 \text{sexmale} +\beta_3 \text{(height*sexmale)}+ \epsilon \\
\end{aligned}
$$
于是,可以将上面的公式里男性(sexmale = 1)和女性(sexmale = 0)分别表示
$$
\begin{aligned}
\text{female}\qquad earn &= \alpha + \beta_1 \text{height} +\epsilon \\
\text{male}\qquad earn &= \alpha + \beta_1 \text{height} + \beta_2 *1 +\beta_3 \text{(height*1)}+ \epsilon \\
&= \alpha + \beta_1 \text{height} + \beta_2 +\beta_3 \text{height}+ \epsilon \\
& = (\alpha + \beta_2) + (\beta_1 + \beta_3)\text{height} + \epsilon \\
\end{aligned}
$$
我们再对比`mod6`结果中的系数$\alpha, \beta_1, \beta_2, \beta_3$
```{r lm-48}
mod6
```
是不是更容易理解呢?
- 对于女性,(截距$\alpha$,系数$\beta_1$),height增长1个单位,引起earn的增长`564.5102`
- 对于男性,(截距$\alpha + \beta_2$,系数$\beta_1 + \beta_3$),height增长1个单位,引起earn的增长`564.5102 + 701.4065 = 1265.92`
事实上,对于男性和女性,截距和系数都不同,因此这种情形**等价于**,按照sex分成两组,男性算男性的斜率,女性算女性的斜率
```{r lm-49}
wages %>%
group_by(sex) %>%
group_modify(
~ broom::tidy(lm(earn ~ height, data = .))
)
```
```{r lm-50}
wages %>%
ggplot(aes(x = height, y = earn, color = sex)) +
geom_smooth(method = lm, se = F)
```
```{r lm-51}
wages %>%
ggplot(aes(x = height, y = earn, color = sex)) +
geom_line(aes(y = predict(mod6)))
```
如果再特殊一点的模型(有点过分了)
```{r lm-52}
mod7 <- lm(earn ~ height + height:sex, data = wages)
coef(mod7)
```
这又怎么理解呢?
我们还是按照数学模型来理解,这里对应的数学表达式
$$
\begin{aligned}
\text{earn} &= \alpha + \beta_1 \text{height} + \beta_4 \text{(height*sex)}+ \epsilon \\
\end{aligned}
$$
引入虚拟变量
$$
\begin{aligned}
\text{earn} &= \alpha + \beta_1 \text{height} + \beta_4 \text{(height*sexmale)}+ \epsilon \\
\end{aligned}
$$
同样假定男性(sexmale = 1)和女性(sexmale = 0),那么
$$
\begin{aligned}
\text{female}\qquad earn &= \alpha + \beta_1 \text{height} +\epsilon \\
\text{male}\qquad earn &= \alpha + \beta_1 \text{height} + \beta_4 \text{(height*1)}+ \epsilon \\
&= \alpha + \beta_1 \text{height} + \beta_4 \text{height}+ \epsilon \\
& = \alpha + (\beta_1 + \beta_4)\text{height} + \epsilon \\
\end{aligned}
$$
对照模型mod7的结果,我们可以理解:
- 对于女性(截距$\alpha$,系数$\beta_1$),height增长1个单位,引起earn的增长`757.4661`
- 对于男性(截距$\alpha$,系数$\beta_1 + \beta_4 $),height增长1个单位,引起earn的增长`757.4661 + 251.2915 = 1008.758`
- 注意到,mod6和mod7是两个不同的模型,
- mod7中男女拟合曲线在y轴的截距是相同的,而mod6在y轴的截距是不同的
### predict vs fit
- fitted() , 模型一旦建立,可以使用拟合函数`fitted()`返回拟合值,建模和拟合使用的是同一数据
- predict(), 模型建立后,可以用新的数据进行预测,`predict()`要求数据框包含新的预测变量,如果没有提供,那么就使用建模时的预测变量进行预测,这种情况下,得出的结果和`fitted()`就时一回事了。
`predict()`函数和`fitted()`函数不同的地方,还在于`predict()`函数往往带有返回何种类型的选项,可以是具体数值,也可以是分类变量。具体会在第 \@ref(tidymodels-intro) 章介绍。
<!-- <https://stackoverflow.com/questions/12201439/is-there-a-difference-between-the-r-functions-fitted-and-predict> -->
### 回归和相关的关系
- 相关,比如求两个变量的相关系数`cor(x, y)`
- 回归,也是探寻自变量和因变量的关系,一般用来**预测**
回归分析中,如果自变量只有一个$x$,也就是模型`lm(y~x)`,那么回归和相关就有关联了。
比如:计算身高和收入两者的Pearson相关系数的平方
```{r lm-53}
r <- cor(wages$height, wages$earn)
print(r^2)
```
然后看看,身高和收入的线性模型
```{r lm-54}
lm(formula = earn ~ height, data = wages) %>%
broom::glance() %>%
pull(r.squared)
```
相关系数的平方 和 线性模型的$R^2$是相等的
## 延伸阅读
一篇极富思考性和启发性的文章[《常见统计检验的本质是线性模型》](https://lindeloev.github.io/tests-as-linear/)
## 线性模型的物理解释
图中,中间蓝色点是这些数据点的均值点,线性模型可以类比为,这里有一根通过这个均值点的刚体,而每个数据点都是一个弹簧,竖直连接到刚体,很显然越远的点,对刚体的拉力越大,越近越小,最后刚体达到平衡状态,此时刚体的状态就是线性回归的直线。
```{r out.width = '85%', echo = FALSE}
knitr::include_graphics("images/Least_squares_as_springs.png")
```
可参考[Least squares as springs](https://joshualoftus.com/posts/2020-11-23-least-squares-as-springs/)
```{r lm-55, echo = F}
# remove the objects
# rm(list=ls())
rm(combined, fit, mod1, mod2, mod3, mod4, mod5, mod6, mod7, p1, p2, r, wages, wages_fct)
```
```{r lm-56, echo = F, message = F, warning = F, results = "hide"}
pacman::p_unload(pacman::p_loaded(), character.only = TRUE)
```