<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>深度学习 on pp的技术博客</title><link>https://pp-tech-blog.pages.dev/tags/%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0/</link><description>Recent content in 深度学习 on pp的技术博客</description><generator>Hugo</generator><language>zh-cn</language><lastBuildDate>Tue, 16 Jun 2020 00:00:00 +0000</lastBuildDate><atom:link href="https://pp-tech-blog.pages.dev/tags/%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0/index.xml" rel="self" type="application/rss+xml"/><item><title>神经网络预测股票价格</title><link>https://pp-tech-blog.pages.dev/posts/predict_stockprice/</link><pubDate>Tue, 16 Jun 2020 00:00:00 +0000</pubDate><guid>https://pp-tech-blog.pages.dev/posts/predict_stockprice/</guid><description>RNN RNN可通过记忆体实现短期记忆进行连续数据的预测 以连续60天的开盘价作为输入特征x_train，第61天的数据作为标签 import numpy as np im。</description></item><item><title>fit_transform,fit,transform区别和作用</title><link>https://pp-tech-blog.pages.dev/posts/fit_transformfittransform/</link><pubDate>Mon, 15 Jun 2020 00:00:00 +0000</pubDate><guid>https://pp-tech-blog.pages.dev/posts/fit_transformfittransform/</guid><description>fit(): Method calculates the parameters μ and σ and saves them as internal objects. 解释。</description></item><item><title>tensorflow_6 循环神经网络</title><link>https://pp-tech-blog.pages.dev/posts/tensorflow_6/</link><pubDate>Sun, 07 Jun 2020 00:00:00 +0000</pubDate><guid>https://pp-tech-blog.pages.dev/posts/tensorflow_6/</guid><description>循环神经网络 循环核 参数时间共享，循环层提取时间信息。 结构： 前向传播时：记忆体内存储的状态信息ht ，在每个时刻都被刷新，三个参数矩阵$w_xh, w_hh, w_h。</description></item><item><title>tensorflow_5 卷积神经网络</title><link>https://pp-tech-blog.pages.dev/posts/tensorflow_5/</link><pubDate>Fri, 05 Jun 2020 00:00:00 +0000</pubDate><guid>https://pp-tech-blog.pages.dev/posts/tensorflow_5/</guid><description>卷积神经网络概念 卷积(Convolutional) • 卷积计算可认为是一种有效提取图像特征的方法 • 一般会用一个正方形的卷积核，按指定步长，在输入特征图上滑动，遍历输。</description></item><item><title>tensorflow_4 网络八股扩展</title><link>https://pp-tech-blog.pages.dev/posts/tensorflow_4/</link><pubDate>Thu, 04 Jun 2020 00:00:00 +0000</pubDate><guid>https://pp-tech-blog.pages.dev/posts/tensorflow_4/</guid><description>baseline 在baseline基础上扩展 import tensorflow as tf mnist = tf.keras.datasets.mnist (x_tra。</description></item><item><title>tensorflow_3 神经网络八股</title><link>https://pp-tech-blog.pages.dev/posts/tensorflow_3/</link><pubDate>Wed, 03 Jun 2020 00:00:00 +0000</pubDate><guid>https://pp-tech-blog.pages.dev/posts/tensorflow_3/</guid><description>一 神经网络搭建八股 用Tensorflow API：tf.keras搭建网络八股 六步法 import 导入相关模块 train, test 指定训练集和测试集 mode。</description></item><item><title>tensorflow_1 神经网络计算</title><link>https://pp-tech-blog.pages.dev/posts/tensorflow_1/</link><pubDate>Thu, 28 May 2020 00:00:00 +0000</pubDate><guid>https://pp-tech-blog.pages.dev/posts/tensorflow_1/</guid><description>一、TF2常用函数 1 tf.Variable #Variable将变量标记为可训练，被标记的变量会在反向传播中记录梯度信息，神经网络训练中，常用该函数标记待训练参数 w。</description></item><item><title>tensorflow_2 神经网络优化</title><link>https://pp-tech-blog.pages.dev/posts/tensorflow_2/</link><pubDate>Thu, 28 May 2020 00:00:00 +0000</pubDate><guid>https://pp-tech-blog.pages.dev/posts/tensorflow_2/</guid><description>一 函数 tf.where(条件语句，真返回A，假返回B) a = tf.constant([1, 2, 3, 1, 1]) b = tf.constant([0, 1,。</description></item><item><title>归一化 （Normalization）、标准化 （Standardization）和中心化/零均值化 （Zero-centered）</title><link>https://pp-tech-blog.pages.dev/posts/normalization_standardization/</link><pubDate>Wed, 27 May 2020 00:00:00 +0000</pubDate><guid>https://pp-tech-blog.pages.dev/posts/normalization_standardization/</guid><description>1 概念 归一化： 把数据变成(0，1)或者（1，1）之间的小数。主要是为了数据处理方便提出来的，把数据映射到0～1范围之内处理，更加便捷快速。 把有量纲表达式变成无量纲表。</description></item></channel></rss>