[1] http://deeplearning.stanford.edu/wiki/index.php/UFLDL_Tutorial [2] http://www.deeplearningbook.org/ 持续更新中,假如您有更好的资料,请留言,谢谢~

深度学习  

tf.app.run()

在很多TensorFlow公布的Demo中,都有这样的代码存在,如下,这是干什么的呢? if __name__ == "__main__": tf.app.run() 我们来看一下源代码: # tensorflow/tensorflow/python/platform/default/_app.py # Copyright 2015 Google Inc. All Rights Rese

tf.app.run   TensorFlow  

在学习深度网络框架的过程中,我们发现一个问题,就是如何输出各层网络参数,用于更好地理解,调试和优化网络?针对这个问题,TensorFlow开发了一个特别有用的可视化工具包:TensorBoard,既可以显示网络结构,又可以显示训练过程中各层参数的变化情况。本博文分为四个部分,第一部分介绍相关函数,第二部分是代码测试,第三部分是运行结果,第四部分介绍相关参考资料。 一. 相关函数 TensorBoa

TensorFlow   TensorBoard  

[1] The Python Tutorial [2] Numpy Quick Start Tutorial 持续更新中。。。

python   numpy  

在学习TensorFlow的过程中,我们需要知道某个tensor的值是什么,这个很重要,尤其是在debug的时候。也许你会说,这个很容易啊,直接print就可以了。其实不然,print只能打印输出shape的信息,而要打印输出tensor的值,需要借助class tf.Session, class tf.InteractiveSession。因为我们在建立graph的时候,只建立tensor的结构

tensorflow   Session  

在深度学习中,不管使用那种学习框架,我们会遇到一个很重要的问题,那就是在训练完之后,如何存储学习到的深度网络的参数?在测试时,如何调用这些网络参数?针对这两个问题,本篇博文主要探索TensorFlow如何解决他们?本篇博文分为三个部分,第一是讲解tensorflow相关的函数,第二是代码例程,第三是运行结果。 一 tensorflow相关的函数 我们说的这两个功能主要由一个类来完成,class t

TensorFlow   save variables   restore variables  

       在深度学习网络结构中,各个层的类别可以分为这几种:卷积层,全连接层,relu层,pool层和反卷积层等。目前,在像素级估计和端对端学习问题中,全卷积网络展现了他的优势,里面有个很重要的层,将卷积后的feature map上采样(反卷积)到输入图像的尺寸空间,就是反卷积层。那么它在tensorflow里是怎么实现的呢?本篇博文讲介绍这方面的内容。 1. 反卷积函数介绍 tf.nn.co

tensorflow   tf.nn.conv2d_transpo  

close all; % 模拟figure 5 im = zeros(401,401,3); im(:,:,:) = 0; im(2:200, 2:200, 2) = 255; im(202:400, 202:400, 2) = 255; im(2:200, 202:400, :) = 255; im(202:400, 2:200, :) = 255; im=im2double(im)

matlab   SIFT flow  

% load mat data nyu = load('nyu_depth_v2_labeled.mat'); h = 240; w = 320; test_data_size = 363; train_data_size = 1086; test_image = uint8(zeros(h, w, 3, 363)); test_depth = single(zeros(h, w, 363));

matlab  

       双线性插值,是一种比较重要的插值方法,尤其在数字图像处理领域。本篇博文分为三个部分:一是双线性插值的算法推导,二是双线性插值的算法实现,三是算法的运行结果。 一 双线性插值的算法推导 二 代码实现(matlab) function [out] = bilinearInterpolation(im, out_dims) in_rows = size(im,1); in

双线性插值  
1 2 3 4 5 6 7 8 9