【Pytorch基础】处理多维特征的输入

共计 2889 个字符,预计需要花费 8 分钟才能阅读完成。

回顾

  到目前为止,我们讨论的都是只有一个实数输入的模型。但实际情况要复杂的多,因此,如何处理多维输入是个非常重要的问题。

关于糖尿病的二分类问题

1. 准备数据集

【Pytorch 基础】处理多维特征的输入

上述样本的输入为 8 个指标,输出为两个类别(病情未来会加重 1、病情未来不会加重 0)。

import numpy as np
import torch

xy = np.loadtxt('https://project-preview-1257022783.cos.ap-chengdu.myqcloud.com/diabetes.csv.gz',delimiter=',',dtype=np.float32)

# 创建 tensor
x_data = torch.from_numpy(xy[:,:-1]) # 所有行,最后一列不要
y_data = torch.from_numpy(xy[:,[-1]]) # 所有行,只要最后一列,- 1 加 [] 表示拿出来一个矩阵,而不是向量

多维度输入的逻辑回归模型

  上述数据集的输入不再是一个简单的实数,而是一个 8 维向量 $x^{(i)}$, 对于单个样本其模型为:

$$\hat{y}^{(i)} = \sigma (w^T \times x^{(i)} + b)$$

$$\Leftrightarrow \sigma (\sum{n=1}^{8} x{n}^{(i)} \cdot w_n + b)$$

$$\Leftrightarrow \sigma((w^T \times x^{(i)})^T + b) \text{标量的转置还是该标量}$$

$$\Leftrightarrow \sigma \left(\begin{bmatrix} x_1 & x_2 & x_3 & x_4 & x_5 & x_6 & x_7 & x_8 \end{bmatrix} \times \begin{bmatrix} w_1 \ w_2 \ w_3 \ w_4 \ w_5 \ w_6 \ w_7 \ w_8 \end{bmatrix} + b \right) = \sigma(z^{(i)})$$

上述操作得到一个标量 $\hat{y}^{(i)}$, $\sigma$ 为 Logistic 函数。

Mini-Batch(N samples) 情况下

  Mini_Batch 的大小为 $N$, 即每次更新都根据 $N$ 个样本来计算损失,其模型为:

$$\begin{bmatrix} \hat{y}^{(1)} \ \vdots \ \hat{y}^{(N)} \end{bmatrix} = \begin{bmatrix} \sigma(z^{(1)}) \ \vdots \ \sigma(z^{(N)}) \end{bmatrix} = \sigma(\begin{bmatrix} z^{(1)} \ \vdots \ z^{(N)} \end{bmatrix})$$

其中:

$$z^{(1)} = \begin{bmatrix} x{1}^{(1)} & \cdots & x{8}^{(1)} \end{bmatrix} \times \begin{bmatrix} w_1 \ \vdots \ w_8 \end{bmatrix} + b$$

$$z^{(N)} = \begin{bmatrix} x{1}^{(N)} & \cdots & x{8}^{(N)} \end{bmatrix} \times \begin{bmatrix} w_1 \ \vdots \ w_8 \end{bmatrix} + b$$

即:

$$\begin{bmatrix} z^{(1)} \ \vdots \ z^{(N)} \end{bmatrix}{N\times 1} = \begin{bmatrix} x{1}^{(1)} & \cdots & x{8}^{(1)} \ \vdots & \ddots & \vdots \ x{1}^{(N)} & \cdots & x{8}^{(N)} \end{bmatrix}{N\times 8} \begin{bmatrix} w_1 \ \vdots \ w8 \end{bmatrix}{8\times 1} + \begin{bmatrix} b \ \vdots \ b \end{bmatrix}_{N\times 1}$$

构造多层神经网络

先导知识:
对于矩阵运算 $y = A \times x$

其中 $$ y{m \times 1},A{m \times n},x_{n \times 1} $$

那么,上式表示为将 $n$ 维空间映射到 $m$ 维空间的一个线性变换。
因此,可以将矩阵看成一种空间变换的函数。
所以,self.linear = torch.nn.Linear(8,6) 就可以看做将一个 8 维空间经过线性变换映射到一个 6 维空间上。
【Pytorch 基础】处理多维特征的输入
但是,若我们在每一次线性变换后加入了非线性函数 $\sigma$,就可以实现非线性变换,使得模型可以拟合非线性问题。

  多层神经网络,就是通过拼接多次变换得到的:

【Pytorch 基础】处理多维特征的输入
【Pytorch 基础】处理多维特征的输入

注意:理论上,隐层数量越多模型的学习能力就越强。但是,太强的学习能力会导致模型连数据中的噪声都学习到了(过拟合)反而适得其反。一个号的模型应该要具有一定的泛化能力,不能去死扣细节而去抓住问题的主要矛盾。因此,层数的多少应该根据实际情况适当尝试调整,而不是一味地求多。

定义多层神经网络

class Model(torch.nn.Module):
    def __init__(self):
        super(Model,self).__init__()
        self.linear1 = torch.nn.Linear(8,6) # 输入维度为 8
        self.linear2 = torch.nn.Linear(6,4)
        self.linear3 = torch.nn.Linear(4,1)
        self.activate = torch.nn.Sigmoid() # 激活函数

    def forward(self, x):
        x = self.activate(self.linear1(x))
        x = self.activate(self.linear2(x))
        x = self.activate(self.linear3(x))
        return x

model = Model()

损失函数和优化器

criterion = torch.nn.BCELoss(reduction="mean")
optimizer = torch.optim.SGD(model.parameters(),lr=0.01)

训练模型

h_list = []
l_list = []
for epoch in range(10000):
    # 前馈计算
    y_pred = model(x_data)
    loss = criterion(y_pred,y_data)
    print(epoch, loss.item())
    h_list.append(epoch)
    l_list.append(loss.item())

    # 反向传播
    optimizer.zero_grad()
    loss.backward()

    # 更新参数
    optimizer.step()

绘制收敛图

import matplotlib.pyplot as plt

plt.plot(h_list, l_list)
plt.ylabel('loss')
plt.xlabel('epoch')
plt.show()

【Pytorch 基础】处理多维特征的输入

正文完
 
yhlin
版权声明:本站原创文章,由 yhlin 2023-01-19发表,共计2889字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。