Posts List

使用Tensorflow的py_func函数灵活操作Tensor

由于TensorFlow中tensor数据类型的特殊性,对它的处理往往是一件比较头疼的事情。有些情况需要将其转换为numpy array进行计算,这时有一个很有效的函数py_func,这里举一个使用例子,函数本身的用法可见参考资料。

深度强化学习之DQN系列

基础(Q-Learning) Q即为Q(s,a),就是在某一时刻的 s 状态下,采取动作a动作能够获得奖励的期望。环境会根据智能体的动作反馈相应的奖励 r。算法的主要思想就是将状态(state)与动作(action)构建成一张Q-table来存储Q值,然后根据Q值来选取能够获得最大的收益的动作。Q-Learning的算法如下:

深度强化学习总览

概念 强化学习的基本思想是通过最大化智能体(Agent)从环境中获得的累计奖赏值,以学习到完成目标的最优策略。强化学习中的基本要素包括:

半监督深度学习

深度学习发展初期,训练深度的网络比较困难。对神经网络来说,一个好的初始化可以让结果更稳定,迭代次数更少,因此利用无标签数据让网络有一个好的初始化成为一个研究热点。

Mask R-CNN关键技术分析

骨干架构(FPN) 特征金字塔网络是一种多维度特征表达,主要解决物体检测中的多尺度问题,可大幅提升小物体检测的性能。网络由浅至深,低层的特征语义信息比较少,但是目标位置准确;高层的特征语义信息比较丰富,但是目标位置比较粗略。特征图金字塔分成三个部分,一个自底向上的路径(左边),一个自顶向下的路径(右边)和横向连接部分。

深度学习之生成模型

PiexlRNN/CNN 使用概率链式法则计算一张图片出现的概率,其中每一项为给定前i-1个像素点后第i个像素点的条件概率分布。此分布通过RNN(LSTM)/CNN来建模,再通过最大化图片x的似然学习RNN/CNN的参数。

MXNet深度学习笔记(二)

模型构造 上一篇中,模型构造是首先需构造Sequential实例,然后添加各层。MXNet还可以通过继承Block类来构造模型。 下面一个例子中,init函数声明带有模型参数的层,函数使用get_constant方法创建训练中不被迭代的参数,即常数参数。forward函数定义模型的前向计算,通过输入x最终返回输出内容。

MXNet深度学习笔记

本文以线性回归为例,展示MXNet以及Gluon的实现。 首先构造一个简单的数据集,其中features是训练数据特征,labels是标签。

序列模型和注意力机制

基础模型 序列模型有Sequence to sequence模型和image to sequence 模型。前者最常见的应用是机器翻译。机器翻译模型的前半部分使用编码网络对输入的原文句子进行编码,后半部分使用解码网络生成对应的翻译。后者的图像描述与之类似。

自然语言处理和词嵌入

词汇表征 计算机是无法直接认识单词的,所以为了让计算机能更好地理解人类语言,需要将词汇进行表征。之前用到的方法是One-hot表征,即创建一个向量,将对应单词的位置用1表示,其余位置用0表示。这种方法的缺点是无法获得词与词之间的相关性。另一种方法是特征表征,即词嵌入,用不同的特征对单词进行特征化表示。