2 Star 5 Fork 6

BrikerMan / tf2-101

加入 Gitee
与超过 1200万 开发者一起发现、参与优秀开源项目,私有仓库也完全免费 :)
免费加入
该仓库未声明开源许可证文件(LICENSE),使用请关注具体项目描述及其代码上游依赖。
克隆/下载
贡献代码
同步代码
取消
提示: 由于 Git 不支持空文件夾,创建文件夹后会生成空的 .keep 文件
Loading...
README

Tensorflow 2.0 技术实战详解

这里整理了本书所有的代码、基础数据集、扩展数据集和一些扩展阅读资源。建议在阅读每一章之前先把基础数据集下载到指定的路径,再配合该章节的笔记本阅读书上内容。

本书所有代码除特殊说明均在 jupyer lab 上执行

第 1 章 环境配置

在本章中,你将学习如何准备和使用深度学习 Notebook 环境以及本书的代码规范。 本书代码环境为 Python 3.6+ 和 Tensorflow 2.0,所有的代码需要在 Notebook 环境中执行。

1.1 云端 Notebook 环境介绍

配置本地 GPU 环境比较麻烦,推荐读者们使用云端 Notebook 平台。 云 Notebook 环境都提供了 CPU 环境和 GPU 环境,对于不要求很大算力的项目,建议使用 CPU 环境,以免浪费资源。

平台 是否收费 需要外网 相关文章
OpenBayes(推荐) OpenBayes 下识别手写数字
Kaggle 如何用 Kaggle Kernels 免费使用GPU
Colab 设置Google-colab使用免费GPU

1.2 本地 Notebook 环境准备

配置本地 Notebook 环境建议使用 Anaconda,在 Ubuntu/Mac OS X 系统环境安装。

1.3 代码规范介绍

第 2 章 常见工具介绍

在本章中,你将学习 Python 数据处理中最常用的三个工具 Numpy, Pandas, Matplotlib。几乎每一个实验都会用到这几个工具。熟练掌握它们是学习深度学习中的第一步。

2.1 扩展资料

第 3 章 从零搭建神经网络

在本章中您将通过动手实现一个神经网络来学习神经网络基础知识。由于本章重点在于动手实现,有不少知识点一带而过,所以实现过程遇到不懂的概念和公式不要慌,继续按照代码示例把神经网络实现了。实现完成后继续看第4章,看完第4章回过头来再看一遍第3章就能理解大部分内容。至于数学公式和推导,您只需要知道哪个阶段用了什么公式即可,并不要求掌握具体的推导过程。

3.1 扩展资料

第 4 章 深度学习基础

本章您将学习深度学习的基本概念、模型评估方案以及如何解决模型的欠拟合过拟合。尽管深度学习中概念非常多,背后涉及大量的数学知识,但初学阶段不用太担心,建议先大体了解这些概念,再通过一个个实践项目去深入理解。

4.1 扩展资料

第 5 章 泰坦尼克幸存者预测

在本章中你将通过搭建一个神经网络模型,了解深度学习的工作流程。读者们如果能够按照本章代码重现实验结果,完成 hello world 项目,就达成了学习目标。

5.1 扩展资料

第 6 章 TensorFlow 2.0 介绍

在本章中,您将学习 TensorFlow 2.0 版本的新特性,模型保存方法,训练回调函数和可视化。模型保存和训练回调是所有深度学习任务必须要掌握的技能,训练可视化则可以帮助您更好地理解和调试模型。

6.1 扩展资料

第 7 章 图像识别入门

在本章中,您将构建一个简单的模型入门图像识别,然后用卷积神经网络来优化图像识别的效果。

7.1 扩展资料

第 8 章 图像识别进阶

本章我们通过一个花朵种类分类问题进一步学习图像识别。真实的图像识别问题中,需要从磁盘读取图片文件,进行预处理和数据增强才能开始训练模型。除了数据增强,我们还可以通过迁移学习的方案大幅度降低训练成本,快速获得表现很好的模型。

数据集下载

下载 TensorFlow 官方提供的花分类数据集 (https://storage.googleapis.com/download.tensorflow.org/example_images/flower_photos.tgz), 并且解压到 data/flower_photos 目录下。

新增依赖

pip install pillow
pip install tensorflow_hub

8.1 扩展资料

第 9 章 图像画风迁移

数据集

数据已经下载并且存到 data/style-tranfer 目录下。如果想换别的图像做风格转换,可以从 无版权图库 unsplash 下载图像使用。

9.1 扩展资料

第 10 章 自然语言处理入门

在本章中,我们将学习文本数据预处理,向量表示和循环神经网络的概念基础。

数据集

  • 预训练词嵌入:从仓库 Chinese-Word-Vectors 下载微博词嵌入,选择 Word2vec / Skip-Gram with Negative Sampling (SGNS) 分类下 Word + Character + Ngram 方式训练的词向量。下载词向量为 bz2 格式的压缩文件,解压压缩文件 sgns.weibo.bigram-char.bz2data/word2vec/sgns.weibo.bigram-char 路径下。

10.1 扩展资料

10.2 论文

第 11 章 语音助手意图分类

在本章中,我们通过解决一个语音助手类场景下的意图分类问题学习中文文本分类建模流程。对于短文本小语料类场景,我们通常使用预训练词嵌入提高模型性能和泛化能力。

数据集

11.1 扩展资料

第 12 章 自然语言生成实战

在本章中,读者将学习如何使用编码-解码架构构建一个自然语言生成模型。通过写诗和翻译两个实例,分别了解 LSTM 语言模型和 Seq2Seq。

数据集

12.1 扩展资料

第 13 章 中文实体识别实战

命名实体识别是自然语言处理中最基础的任务之一。本章中我们以人民日报语料实体识别任务为例,学习如何实现文本序列标注。同时学习如何使用BERT实现迁移学习来提高模型效果。

数据集

  • 人民日报 NER 数据集:经典的命名实体识别数据集, 流传时间很长,比较难以确定数据来源。已下载到 data/peoples-daily-ner
  • BERT 中文模型:从 BERT 官网 下载 BERT-Base, Chinese 模型,解压到 data/bert/chinese_L-12_H-768_A-12 目录下。

新增依赖

pip install keras_bert

第 14 章 生成对抗网络

本章将通过生成手写数字图像实践,学习生成式对抗网络原理和训练方法。

14.1 扩展资料

第 15 章 强化学习

本章将通过 gym 强化学习环境,学习如何利用 Q-Learning 和 Deep Q Network 解决简单强化学习任务。

15.1 扩展资料

空文件

简介

Repository for Book 《TensorFlow 2.0 入门实践》 展开 收起
Jupyter Notebook
取消

发行版

暂无发行版

贡献者

全部

近期动态

加载更多
不能加载更多了
1
https://gitee.com/BrikerMan/tf2-101.git
git@gitee.com:BrikerMan/tf2-101.git
BrikerMan
tf2-101
tf2-101
main

搜索帮助