怎么用Python构建深度学习模型

发布时间:2022-01-25 09:15:39 作者:iii
来源:亿速云 阅读:249

这篇文章主要介绍“怎么用Python构建深度学习模型”,在日常操作中,相信很多人在怎么用Python构建深度学习模型问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”怎么用Python构建深度学习模型”的疑惑有所帮助!接下来,请跟着小编一起来学习吧!

1. 获取训练原始数据

我使用 JDK 的源代码作为训练数据。可在此处获得。我们正在构建一个序列到序列的预测模型,输入序列是字符序列。每个 .java 文件都会被扫描并聚合到一个名为“jdk-chars.txt”的文件中。此外,注释被忽略,因为我们希望 AI 程序员学习如何编码。注释会使数据变得嘈杂。

以下代码读取 jdk-chars.txt 并将其切片以适合我的桌面的硬件功能。就我而言,我只使用了代码中显示的代码的 20%。

path = "./jdk-chars.txt"
text = open(path).read()
slice = len(text)/5
slice = int(slice)
 
# slice the text to make training faster
text = text[:slice]
 
print('# of characters in file:', len(text))

2. 建立索引以寻址字符

LSTM 输入只能理解数字,所以首先我们需要为每个字符分配一个唯一的整数。

例如,如果代码中有 65 个唯一字符,我们为 65 个字符中的每个字符分配一个数字。下面的代码用 [“{” : 0 ] [ “a” : 1 ], ... ] 这样的条目构建了一个字典。还生成反向字典用于解码 LSTM 的输出。

chars = sorted(list(set(text)))
print('# of unique chars:', len(chars))
char_indices = dict((c, i) for i, c in enumerate(chars))
indices_char = dict((i, c) for i, c in enumerate(chars))

3. 准备带标签的训练序列

接下来,我们需要准备带有标签的训练数据。X 是我们定义的特定长度的序列(在我的例子中是 40),y 是序列的下一个字符。例如,从以下行:

int weekOfYear = isSet(WEEK_OF_YEAR) ? field[MAX_FIELD + WEEK_OF_YEAR] : 1; ... ...

X 的样本是

int weekOfYear = isSet(WEEK_OF_YEAR) ? fi

y 是下一个字符

e

在这里,我们将文本剪切为 40 个字符的冗余序列。

NUM_INPUT_CHARS = 40
STEP = 3
sequences = []
next_chars = []
 
for i in range(0, len(text) - NUM_INPUT_CHARS, STEP):
    sequences.append(text[i: i + NUM_INPUT_CHARS])
    next_chars.append(text[i + NUM_INPUT_CHARS])
 
print('# of training samples:', len(sequences))

我们正在尝试构建一个具有如下结构的网络:

怎么用Python构建深度学习模型

4. 向量化训练数据

准备好训练数据后,需要将其转换为向量。由于我们在第二步中准备了char_indicesindices_char,下面的代码可以轻松地将我们的训练数据转换为使用 one-hot 编码的向量。例如,索引为 11 的字符将是所有 0 和位置 11 处的 1 的向量。

print('Vectorize training data')
X = np.zeros((len(sequences), NUM_INPUT_CHARS, len(chars)), dtype=np.bool)
y = np.zeros((len(sequences), len(chars)), dtype=np.bool)
for i, sequence in enumerate(sequences):
    for t, char in enumerate(sequence):
        X[i, t, char_indices[char]] = 1
    y[i, char_indices[next_chars[i]]] = 1

5. 构建单层 LSTM 模型

下面的代码定义了神经网络的结构。该网络包含一层具有 128 个隐藏单元的 LSTM。所述input_shape参数指定输入序列长度(NUM_INPUT_CHARS)和输入的每个时间(唯一的字符,即,尺寸),在尺寸。

print('Build model...')
model = Sequential()
model.add(LSTM(128, input_shape=(NUM_INPUT_CHARS, len(chars))))
model.add(Dense(len(chars)))
model.add(Activation('softmax'))
 
optimizer = RMSprop(lr=0.01)
model.compile(loss='categorical_crossentropy', optimizer=optimizer)
print(model.summary())

最后的 Dense() 层是一个带有 softmax 激活的输出层,允许对输入向量进行 len(chars) 方式分类。在训练期间,反向传播时间从输出层开始,因此选择优化器 = rmsprop 可以起到重要作用。注意 LSTM 是 Keras 中的输出层。

Optimizer 是优化函数。如果你不知道这个术语,你可能熟悉逻辑回归中常用的优化函数——随机梯度下降。这是类似的事情。

最后一行指定了成本函数。在这种情况下,我们使用“categorical_crossentropy”。

6.训练模型和生成Java代码

sample 函数用于从概率数组中采样一个索引。例如,给定 preds=[0.5,0.2,0.3] 和默认温度,该函数将以概率 0.5 返回索引 0,以概率 0.2 返回索引 1,或以概率 0.3 返回索引 2。它用于避免一遍又一遍地生成相同的序列。我们希望看到 AI 程序员可以编写的一些不同的代码序列。

# train the model, output generated text after each iteration
for iteration in range(1, 60):
    print()
    print('-' * 50)
    print('Iteration', iteration)
    model.fit(X, y, batch_size=128, epochs=1)
 
    start_index = random.randint(0, len(text) - NUM_INPUT_CHARS - 1)
 
    for diversity in [0.2, 0.5, 1.0, 1.2]:
        print()
        print('----- diversity:', diversity)
 
        generated = ''
        sequence = text[start_index: start_index + NUM_INPUT_CHARS]
        generated += sequence
        print('----- Generating with seed: "' + sequence + '"')
        sys.stdout.write(generated)
 
        for i in range(400):
            x = np.zeros((1, NUM_INPUT_CHARS, len(chars)))
            for t, char in enumerate(sequence):
                x[0, t, char_indices[char]] = 1.
 
            preds = model.predict(x, verbose=0)[0]
            next_index = sample(preds, diversity)
            next_char = indices_char[next_index]
 
            generated += next_char
            sequence = sequence[1:] + next_char
 
            sys.stdout.write(next_char)
            sys.stdout.flush()
        print()

7. 结果

训练模型需要几个小时。最后生成的代码如下所示:

----- diversity: 1.2
----- Generating with seed: "eak positions used by next()
// and prev"

eak positions used by next()
// and previos < 
als.get[afip(lookupFDataNtIndexPesicies- > = nuls.simys);
} e.apfwn 0;
for;
rerendenus = contaroyCharset() :
Attch ;
margte.adONamel = getScale(); i  {
int exponentace = sed, off endexpVal.vilal = 0,
break;
localicIntLullAtper.sudid);
}
void fam();
;
if (offset:
b = t);
if (false;
private byte[] is(-notren} fig ist[(i = 0)
molInd);
if (end < = mame") inie = torindLotingenFiols.INFGNTR_FIELD_(ne

生成的代码没有多大意义,甚至没有编译。但是我们仍然可以看到 LSTM 捕获了一些单词和语法。例如,“void fam();”。你还可以查看在早期迭代中生成的代码。他们的意义不大。

到此,关于“怎么用Python构建深度学习模型”的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注亿速云网站,小编会继续努力为大家带来更多实用的文章!

推荐阅读:
  1. pytorch如何构建多模型实例
  2. python构建指数平滑预测模型示例

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

python

上一篇:如何在Linux 和Windows之间共享Steam的游戏文件

下一篇:CentOS 7.5下FFmpeg如何安装使用

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》