Skip to content

Commit c38d208

Browse files
committed
修正了数学公式无法显示的问题
1 parent 076406a commit c38d208

6 files changed

+15
-18
lines changed

Day81-90/82.k最近邻算法.md

+6-10
Original file line numberDiff line numberDiff line change
@@ -246,43 +246,39 @@ $$
246246
\text{Accuracy} = \frac{\text{TP} + \text{TN}}{\text{TP} + \text{FP} + \text{FN} + \text{TN}}
247247
$$
248248

249-
上面的例子,模型预测的准确率为: $\small{\frac{80 + 870}{80 + 30 + 20 + 870} = \frac{950}{1000} = 0.95}$ 。
249+
上面的例子,模型预测的准确率为: $\frac{80 + 870}{80 + 30 + 20 + 870} = \frac{950}{1000} = 0.95$ 。
250250

251251
2. **精确率**(Precesion)。精确率用于衡量在所有被预测为正类的样本中,实际上属于正类的比例,通常也被称为查准率。
252252

253253
$$
254254
\text{Precesion} = \frac{\text{TP}}{\text{TP} + \text{FP}}
255255
$$
256256

257-
上面的例子,模型预测的精确率为: $\small{\frac{80}{80 + 30} = \frac{80}{110} = 0.73}$ 。
257+
上面的例子,模型预测的精确率为: $\frac{80}{80 + 30} = \frac{80}{110} = 0.73$ 。
258258

259259
3. **召回率**(Recall)。召回率用于衡量在所有实际为正类的样本中,被模型正确预测为正类的比例,通常也被称为查全率或真正例率(True Positive Rate)。
260-
261260
$$
262261
\text{Recall} = \frac{\text{TP}}{\text{TP} + \text{FN}}
263262
$$
264263

265-
上面的例子,模型预测的召回率为: $\small{\frac{80}{80 + 20} = \frac{80}{100} = 0.8}$ 。
264+
上面的例子,模型预测的召回率为: $\frac{80}{80 + 20} = \frac{80}{100} = 0.8$ 。
266265

267266
4. **F1 分数**(F1 Score)。F1 分数是精确率和召回率的调和平均数,它在精确率和召回率之间寻求一个平衡,尤其适用于在两者之间有权衡的情况。
268267

269268
$$
270269
\text{F1 Score} = \frac{2}{\frac{1}{\text{Precision}} + \frac{1}{\text{Recall}}} = 2 \times \frac{\text{Precision} \times \text{Recall}}{\text{Precesion} + \text{Recall}}
271270
$$
272271

273-
上面的例子,模型预测的F1 分数为: $\small{2 \times \frac{0.7273 * 0.8}{0.7273 + 0.8} = 0.76}$ 。
272+
上面的例子,模型预测的F1 分数为: $2 \times \frac{0.7273 * 0.8}{0.7273 + 0.8} = 0.76$ 。
274273

275274
5. **特异度**(Specificity)和**假正例率**(False Positive Rate,简称 FPR)。特异度用于衡量的是在所有实际为负类的样本中,被模型正确预测为负类的比例,类似于召回率,只不过针对的是负类样本。
276275

277276
$$
278-
\text{Specificity} = \frac{\text{TN}}{\text{TN} + \text{FP}}
279-
$$
280-
281-
$$
277+
\text{Specificity} = \frac{\text{TN}}{\text{TN} + \text{FP}} \\\\
282278
\text{FPR} = 1 - \text{Specificity}
283279
$$
284280

285-
上面的例子,模型预测的特异度为: $\small{\frac{870}{870 + 30} = \frac{870}{900} = 0.97}$ 。
281+
上面的例子,模型预测的特异度为: $\frac{870}{870 + 30} = \frac{870}{900} = 0.97$ 。
286282

287283
6. **ROC****AUC**
288284

Day81-90/84.朴素贝叶斯算法.md

+1-1
Original file line numberDiff line numberDiff line change
@@ -15,7 +15,7 @@ $$
1515
回到上面李女士购买飞机延误险的例子,假设本次航班是从成都双流国际机场飞往北京首都国际机场,执飞的航空公司是四川航空,起飞地天气为雨天(小雨),温度为8°C,东北风2级,降落地天气为晴天,温度4°C,西北风2级。为了更简单的让大家理解贝叶斯定理,我们对这里的条件稍作简化,只保留天气中的降水信息,暂不考虑温度和风速等其他因素,对应到上面的贝叶斯定理有:
1616

1717
$$
18-
P(延误 \vert 起飞机场=双流,到达机场=首都,起飞天气=小雨,降落天气=晴天,执飞航司=川航) = \\
18+
P(延误 \vert 起飞机场=双流,到达机场=首都,起飞天气=小雨,降落天气=晴天,执飞航司=川航) = \\\\
1919
\frac{P(起飞机场=双流,到达机场=首都,起飞天气=小雨,降落天气=晴天,执飞航司=川航 \vert 延误)}{P(起飞机场=双流,到达机场=首都,起飞天气=小雨,降落天气=晴天,执飞航司=川航)} \cdot P(延误)
2020
$$
2121

Day81-90/85.回归模型.md

+1-1
Original file line numberDiff line numberDiff line change
@@ -106,7 +106,7 @@ $$
106106
梯度下降法通过以下更新规则来更新参数 $\small{\mathbf{\beta}}$ :
107107

108108
$$
109-
\mathbf{\beta}^{\prime} = \mathbf{\beta} - \alpha \nabla L(\mathbf{\beta}) \\
109+
\mathbf{\beta}^{\prime} = \mathbf{\beta} - \alpha \nabla L(\mathbf{\beta}) \\\\
110110
\mathbf{\beta} = \mathbf{\beta^{\prime}}
111111
$$
112112

Day81-90/87.集成学习算法.md

+1-1
Original file line numberDiff line numberDiff line change
@@ -67,7 +67,7 @@ $$
6767
其中, $\small{\text{sign}}$ 是符号函数,其定义如下所示:
6868

6969
$$
70-
\text{sign}(z) = \begin{cases} +1 \ (z \ge 0) \\ -1 \ (z \lt 0) \end{cases}
70+
\text{sign}(z) = \begin{cases} +1 \ (z \ge 0) \\\\ -1 \ (z \lt 0) \end{cases}
7171
$$
7272

7373
例如,有 3 个弱学习器 $\small{h_{1}(x)}$、 $\small{h_{2}(x)}$、 $\small{h_{3}(x)}$,它们的输出分别是`+1``-1``+1`,对应的权重是 $\small{\alpha_{1} = 0.5}$、 $\small{\alpha_{2} = 0.3}$、 $\small{\alpha_{3} = 0.2}$ ,那么加权和为:

Day81-90/88.神经网络模型.md

+2-5
Original file line numberDiff line numberDiff line change
@@ -76,7 +76,7 @@ $$
7676
4. Leaky ReLU 函数
7777

7878
$$
79-
f(x) = \begin{cases} x & (x \gt 0) \\ {\alpha}x & (x \le 0)\end{cases}
79+
f(x) = \begin{cases} x & (x \gt 0) \\\\ {\alpha}x & (x \le 0)\end{cases}
8080
$$
8181

8282
- **特点**:Leaky ReLU 是对 ReLU 的改进,它为输入小于零的部分引入了一个小的负斜率(通常取值 $\small{\alpha = 0.01}$ ),使得梯度不为零。
@@ -94,10 +94,7 @@ $$
9494
对于神经网络模型来说,还有一个极其重要的操作就是通过计算损失函数相对于每个权重和偏置的梯度来更新神经网络的参数(权重和偏置),这一过程通常称为反向传播(back-propagation)。反向传播有两个要点,一个是损失函数,一个是梯度下降法,前者用于衡量预测值与真实值之间的差距,常用的损失函数有均方误差(回归任务)和交叉熵损失函数(分类任务),后者通过更新参数 $\small{\theta}$(权重和偏置),使得损失函数最小化,即:
9595

9696
$$
97-
\theta^{\prime} = \theta - \eta \nabla L(\theta)
98-
$$
99-
100-
$$
97+
\theta^{\prime} = \theta - \eta \nabla L(\theta) \\\\
10198
\theta = \theta^{\prime}
10299
$$
103100

更新日志.md

+4
Original file line numberDiff line numberDiff line change
@@ -1,5 +1,9 @@
11
## 更新日志
22

3+
### 2025年2月14日
4+
5+
1. 解决了数学公式无法显示的问题。
6+
37
### 2025 年1月30日
48

59
1. 更新了第01-20天《Python语言基础》部分的内容。

0 commit comments

Comments
 (0)