本文共 2279 字,大约阅读时间需要 7 分钟。
导语:本文是TensorFlow实现流行机器学习算法的教程汇集,目标是让读者可以轻松通过清晰简明的案例深入了解 TensorFlow。这些案例适合那些想要实现一些 TensorFlow 案例的初学者。本教程包含还包含笔记和带有注解的代码。
有一些案例需要 MNIST 数据集进行训练和测试。运行这些案例时,该数据集会被自动下载下来(使用 input_data.py)。
第二步:为TF新手 准 备的各个类型的案例、模型和数据集 接下来的示例来自TFLearn,这是一个为 TensorFlow 提供了简化的接口的库。里面有很多示例和预构建的运算和层。
使用教程 :TFLearn 快速入门。通过一个具体的机器学习任务学习 TFLearn 基础。开发和训练一个深度神经网络分类器。
- 多层感知器。一种用于 MNIST 分类任务的多层感知实现
- 卷积网络(MNIST)。用于分类 MNIST 数据集的一种卷积神经网络实现
- 卷积网络(CIFAR-10)。用于分类 CIFAR-10 数据集的一种卷积神经网络实现
- 网络中的网络。用于分类 CIFAR-10 数据集的 Network in Network 实现
- Alexnet。将 Alexnet 应用于 Oxford Flowers 17 分类任务
- VGGNet。将 VGGNet 应用于 Oxford Flowers 17 分类任务
- VGGNet Finetuning (Fast Training)。使用一个预训练的 VGG 网络并将其约束到你自己的数据上,以便实现快速训练
- RNN Pixels。使用 RNN(在像素的序列上)分类图像
- Highway Network。用于分类 MNIST 数据集的 Highway Network 实现
- Highway Convolutional Network。用于分类 MNIST 数据集的 Highway Convolutional Network 实现
- Residual Network (MNIST) 。应用于 MNIST 分类任务的一种瓶颈残差网络(bottleneck residual network)
- Residual Network (CIFAR-10)。应用于 CIFAR-10 分类任务的一种残差网络
- Google Inception(v3)。应用于 Oxford Flowers 17 分类任务的谷歌 Inception v3 网络
- 循环神经网络(LSTM),应用 LSTM 到 IMDB 情感数据集分类任
- 双向 RNN(LSTM),将一个双向 LSTM 应用到 IMDB 情感数据集分类任务:
- 动态 RNN(LSTM),利用动态 LSTM 从 IMDB 数据集分类可变长度文本:
- 城市名称生成,使用 LSTM 网络生成新的美国城市名:
- 莎士比亚手稿生成,使用 LSTM 网络生成新的莎士比亚手稿:
- Seq2seq,seq2seq 循环网络的教学示例:
- CNN Seq,应用一个 1-D 卷积网络从 IMDB 情感数据集中分类词序列
- Atari Pacman 1-step Q-Learning,使用 1-step Q-learning 教一台机器玩 Atari 游戏:
- Recommender-Wide&Deep Network,推荐系统中 wide & deep 网络的教学示例:
- Spiral Classification Problem,对斯坦福 CS231n spiral 分类难题的 TFLearn 实现:
- 层,与 TensorFlow 一起使用 TFLearn 层:
- 训练器,使用 TFLearn 训练器类训练任何 TensorFlow 图:
- Bulit-in Ops,连同 TensorFlow 使用 TFLearn built-in 操作:
- Summaries,连同 TensorFlow 使用 TFLearn summarizers:
- Variables,连同 TensorFlow 使用 TFLearn Variables:
转载地址:http://zaobi.baihongyu.com/