Keras例子

    例子 描述
    addition_rnn 用于执行两个数字相加(作为字符串)的序列对序列学习的实现。
    babi_memnn 训练在bAbI数据集上的记忆网络,用于阅读理解。
    babi_rnn 在bAbI数据集上训练双分支循环网络用于阅读理解。
    cifar10_cnn 在CIFAR10小图像数据集上训练一个简单的深度CNN。
    cifar10_densenet 在CIFAR10小图像数据集上训练DenseNet-40-12。
    conv_lstm 演示了卷积LSTM网络的使用。
    deep_dream 克拉斯的深梦。
    eager_dcgan 用生成对抗网络和快速执行生成数字。
    eager_image_captioning 用Keras生成图片标题并快速执行。
    eager_pix2pix 使用Pix2Pix进行图像到图像的转换,使用即时执行。
    eager_styletransfer 神经转移与迫切执行。
    fine_tuning 图像分类模型的微调。
    imdb_bidirectional_lstm 在IMDB情感分类任务上训练双向LSTM。
    imdb_cnn 演示如何使用Convolution1D进行文本分类。
    imdb_cnn_lstm 在IMDB情感分类任务上训练一个卷积堆栈和一个循环堆栈网络。
    imdb_fasttext 在IMDB情感分类任务上训练FastText模型。
    imdb_lstm 训练LSTM完成IMDB情感分类任务。
    lstm_text_generation 从尼采的作品中生成文本。
    lstm_seq2seq 这个脚本演示了如何实现基本的字符级序列到序列模型。
    mnist_acgan 在MNIST数据集上实现AC-GAN(辅助分类器GAN)
    mnist_antirectifier 演示如何为Keras编写自定义层
    mnist_cnn 在MNIST数据集上训练一个简单的卷积。
    mnist_cnn_embeddings 演示如何在TensorBoard中可视化嵌入。
    mnist_irnn 在Le等人的“一种初始化整流线性单元循环网络的简单方法”中,再现了用逐像素顺序MNIST的IRNN实验。
    mnist_mlp 在MNIST数据集上训练一个简单的深层多层感知器。
    mnist_hierarchical_rnn 训练一个HRNN (Hierarchical RNN)对MNIST数字进行分类。
    mnist_tfrecord MNIST数据集与TFRecords,标准TensorFlow数据格式。
    mnist_transfer_cnn 迁移学习玩具的例子。
    neural_style_transfer 神经风格转移(生成的图像具有与基本图像相同的“内容”,但具有不同图像的“风格”)。
    nmt_attention 具有注意机制的神经机器翻译。
    quora_siamese_lstm 使用Siamese循环架构对Quora中的重复问题进行分类。
    reuters_mlp 训练和评估一个简单的MLP关于路透社新闻专线主题分类任务。
    stateful_lstm 演示如何使用有状态rnn有效地对长序列建模。
    text_explanation_lime 如何使用lime解释文本数据。
    variational_autoencoder 演示如何构建一个变分自动编码器。
    variational_autoencoder_deconv 演示如何使用反褶积层与Keras构建变分自编码器。
    tfprob_vae 在Kuzushiji-MNIST上使用张量流概率的变分自编码器。
    vq_vae 基于VQ-VAE和张量流概率的离散表示学习。