addition_rnn |
用于执行两个数字相加(作为字符串)的序列对序列学习的实现。 |
babi_memnn |
训练在bAbI数据集上的记忆网络,用于阅读理解。 |
babi_rnn |
在bAbI数据集上训练双分支循环网络用于阅读理解。 |
cifar10_cnn |
在CIFAR10小图像数据集上训练一个简单的深度CNN。 |
cifar10_densenet |
在CIFAR10小图像数据集上训练DenseNet-40-12。 |
conv_lstm |
演示了卷积LSTM网络的使用。 |
deep_dream |
克拉斯的深梦。 |
eager_dcgan |
用生成对抗网络和快速执行生成数字。 |
eager_image_captioning |
用Keras生成图片标题并快速执行。 |
eager_pix2pix |
使用Pix2Pix进行图像到图像的转换,使用即时执行。 |
eager_styletransfer |
神经转移与迫切执行。 |
fine_tuning |
图像分类模型的微调。 |
imdb_bidirectional_lstm |
在IMDB情感分类任务上训练双向LSTM。 |
imdb_cnn |
演示如何使用Convolution1D进行文本分类。 |
imdb_cnn_lstm |
在IMDB情感分类任务上训练一个卷积堆栈和一个循环堆栈网络。 |
imdb_fasttext |
在IMDB情感分类任务上训练FastText模型。 |
imdb_lstm |
训练LSTM完成IMDB情感分类任务。 |
lstm_text_generation |
从尼采的作品中生成文本。 |
lstm_seq2seq |
这个脚本演示了如何实现基本的字符级序列到序列模型。 |
mnist_acgan |
在MNIST数据集上实现AC-GAN(辅助分类器GAN) |
mnist_antirectifier |
演示如何为Keras编写自定义层 |
mnist_cnn |
在MNIST数据集上训练一个简单的卷积。 |
mnist_cnn_embeddings |
演示如何在TensorBoard中可视化嵌入。 |
mnist_irnn |
在Le等人的“一种初始化整流线性单元循环网络的简单方法”中,再现了用逐像素顺序MNIST的IRNN实验。 |
mnist_mlp |
在MNIST数据集上训练一个简单的深层多层感知器。 |
mnist_hierarchical_rnn |
训练一个HRNN (Hierarchical RNN)对MNIST数字进行分类。 |
mnist_tfrecord |
MNIST数据集与TFRecords,标准TensorFlow数据格式。 |
mnist_transfer_cnn |
迁移学习玩具的例子。 |
neural_style_transfer |
神经风格转移(生成的图像具有与基本图像相同的“内容”,但具有不同图像的“风格”)。 |
nmt_attention |
具有注意机制的神经机器翻译。 |
quora_siamese_lstm |
使用Siamese循环架构对Quora中的重复问题进行分类。 |
reuters_mlp |
训练和评估一个简单的MLP关于路透社新闻专线主题分类任务。 |
stateful_lstm |
演示如何使用有状态rnn有效地对长序列建模。 |
text_explanation_lime |
如何使用lime解释文本数据。 |
variational_autoencoder |
演示如何构建一个变分自动编码器。 |
variational_autoencoder_deconv |
演示如何使用反褶积层与Keras构建变分自编码器。 |
tfprob_vae |
在Kuzushiji-MNIST上使用张量流概率的变分自编码器。 |
vq_vae |
基于VQ-VAE和张量流概率的离散表示学习。 |