9.2 深度学习的局限性
9.2.1 将机器学习模型拟人化的
9.2.2 局部泛化与极端泛化
人工智能python实现-深度学习局限性
9.2 深度学习的局限性
9.2.1 将机器学习模型拟人化的
9.2.2 局部泛化与极端泛化
9.2 深度学习的局限性
9.2.1 将机器学习模型拟人化的
9.2.2 局部泛化与极端泛化
9.2 深度学习的局限性
9.2.1 将机器学习模型拟人化的
9.2.2 局部泛化与极端泛化
9.1 重点内容回顾
9.1.1 人工智能的各种方法
9.1.2 深度学习在机器学习领域
9.1.3 如何看待深度学习
9.1.4 关键的推动技术
9.1.5 机器学习的通用工作流程
9.1.6 关键网络架构
9.1.7 可能性空间
9.1 重点内容回顾
9.1.1 人工智能的各种方法
9.1.2 深度学习在机器学习领域
9.1.3 如何看待深度学习
9.1.4 关键的推动技术
9.1.5 机器学习的通用工作流程
9.1.6 关键网络架构
9.1.7 可能性空间
8.5 生成式对抗网络简介
8.5.1 GAN的简要实现流程
8.5.2 大量技巧
8.5.3 生成器
8.5.4 判别器
8.5.5 对抗网络
8.5.6 如何训练 DCGAN
8.5 生成式对抗网络简介
8.5.1 GAN的简要实现流程
8.5.2 大量技巧
8.5.3 生成器
8.5.4 判别器
8.5.5 对抗网络
8.5.6 如何训练 DCGAN
8.4 用变分自编码器生成图像
8.4.1 从图像的潜在空间中采样
8.4.2 图像编辑的概念向量
8.4.3 变分自编码器
8.4 用变分自编码器生成图像
8.4.1 从图像的潜在空间中采样
8.4.2 图像编辑的概念向量
8.4.3 变分自编码器
8.3 神经风格迁移
8.3.1 内容损失
8.3.2 风格损失
8.3.3 用 Keras实现神经风格迁移
8.3 神经风格迁移
8.3.1 内容损失
8.3.2 风格损失
8.3.3 用 Keras实现神经风格迁移
8.2 DeepDream
8.2.1 用 Keras实现 DeepDream
8.2 DeepDream
8.2.1 用 Keras实现 DeepDream
8.1 使用 LSTM生成文本
8.1.1 生成式循环网络简史
8.1.2 如何生成序列数据
8.1.3 采样策略的重要性
8.1.4 实现字符级的 LSTM文本
8.1 使用 LSTM生成文本
8.1.1 生成式循环网络简史
8.1.2 如何生成序列数据
8.1.3 采样策略的重要性
8.1.4 实现字符级的 LSTM文本
7.3 让模型性能发挥到极致
7.3.1 高级架构模式
7.3.2 超参数优化
7.3.3 模型集成
7.3 让模型性能发挥到极致
7.3.1 高级架构模式
7.3.2 超参数优化
7.3.3 模型集成
7.2 使用 Keras回调函数和TensorBoard来检查并监控深度学习模型
7.2.1 训练过程中将回调函数作用于
7.2.2 TensorBoard简介:TensorFlow
7.2 使用 Keras回调函数和TensorBoard来检查并监控深度学习模型
7.2.1 训练过程中将回调函数作用于
7.2.2 TensorBoard简介:TensorFlow
7.1 不用Sequential模型的解决方案:Keras函数式 API
7.1.1 函数式 API简介
7.1.2 多输入模型
7.1.3 多输出模型
7.1.4 层组成的有向无环图
7.1.5 共享层权重
7.1.6 将模型作为层
7.1 不用Sequential模型的解决方案:Keras函数式 API
7.1.1 函数式 API简介
7.1.2 多输入模型
7.1.3 多输出模型
7.1.4 层组成的有向无环图
7.1.5 共享层权重
7.1.6 将模型作为层