自编码器(Autoencoder)
本文介绍了自编码器的搭建方法,以及如何使用自编码器压缩图像和对图像进行去噪
本文介绍了深度强化学习的一种经典算法:Deep Q-Learning,相比于经典的Q-learning算法,该算法可以处理连续的状态空间
强化学习:Deep Q-Learning Read More »
本文介绍了循环神经网络RNN中的一种常用架构:Seq2Seq,通常使用编码器-解码器 (Encoder-Decoder) 架构对其进行搭建;此外,本文还介绍了注意力机制,并通过一个实例展示了如何将注意力机制引入到Seq2Seq模型中
本文第一部分介绍了将单词转换为词向量的GloVe方法,转换后的词向量可以表达不同单词之间的关联性;第二部分通过一个实例介绍了如何使用词嵌入将预训练好的词向量直接应用到实际问题中
循环神经网络RNN主要用于处理序列数据,本文第一部分介绍了RNN的基础结构;为解决RNN的梯度消失问题,增强其处理长序列的能力,本文第二部分介绍了它的两个变体:LSTM、GRU;最后本文介绍了可以同时考虑序列前后依赖的Bidirectional RNN
本文主要介绍了Residual Network以及Inception Network的特点与基本结构,并使用这些基本结构搭建了ResNet50以及GoogLeNet (Inception V1)模型
Residual Network和Inception Network网络架构介绍 Read More »
本文第一部分以多分类算法为例介绍了神经网络的前向传播、后向传播以及使用梯度下降进行训练;第二部分介绍了神经网络在实际应用中的一些技巧,包括参数初始化、Adam、Dropout、Mini-Batch梯度下降、Batch Normalization等