毕业论文

打赏
当前位置: 毕业论文 > 计算机论文 >

基于深度学习的时序模式识别(3)

时间:2018-07-21 15:28来源:毕业论文
模型的组合 (HMMs)。 原则上,神经网络被用于提取所需建模的概率充当时间顺序的角色,这是静态模式,而 隐马尔可夫模型对数据的动态熟悉进行建模。由


模型的组合 (HMMs)。
原则上,神经网络被用于提取所需建模的概率充当时间顺序的角色,这是静态模式,而
隐马尔可夫模型对数据的动态熟悉进行建模。由Mohammed 等人的方法[26]
,DBNs 在预训练
阶段使用无监督训练方式。为了对于给定输入在 HMM 状态建立后部密度,在此之后是有监
督的微调,如使用反向传播算法。在此方法中,n 个连续的输入送入深度置信网络作为训练
集。在有监督的学习阶段对  HMM 每个阶段的交叉熵损失进行优化,以往的方式通常以GMM
代替 DBN。与传统方法较之不同的是,[26]
HMM 的后验状态得以使用。
2.1.2 条件深度置信网络
条件深度置信网络  (Conditional Deep Belief Network)  的基石是条件玻耳兹曼机
(Conditional Restricted Boltzmann Machines, CRBMs) 。这种条件依赖性用于处理数据中的时
间信息。 普通RBMS不传达这种信息。 之前的时间片可能会被当作网络额外的固定输入处理。
在此深度结构中有两种连接:从前一层的 n 个可见节点到当前层的可见节点;从前一层的 m
个可见节点到当前层的隐含节点。由于这是一种条件依赖,所有的连接都是定向的。这种新
的结构被称为条件玻耳兹曼机。
M 和N是展示时间依赖性的深度的两个重要参数。在两个参数无法自动生成,且需要根
据现有任务决定。例如,在对行为建模时设N = F =10,N = M,其中F是数据的帧速率。
简而言之,我们假定N = M,{ t-1,,t-N }是之前N个时间步骤,则可以在一个向量串联起
输入的所有 N个之前的时间片,向量可以成为历史向量�<�。如果没个输入的文度都是D,则历史向量�<�的文度是N·D。此外还有两个权值矩阵 A和B。A是前层的权值矩阵,对现一层
可见,文度为 N·D×D。B与前层有关,对现一层可见,文度与隐含层有关,为 N·D×H,其中
H 是二值隐含节点数[27]。 将当前隐含层的每个之前的输入视为一个动态的偏差项, CRBMs 推理和训练算法并不比
标准 RBMS 难。 此时训练中仍可以使用对比分歧 (contrastive pergence)。 如同普通的DBN,
一旦 CRBMs 的训练开始就可以将它们堆叠在彼此的顶部上以形成一个条件 DBN,较低级别
的隐藏状态向量被认为是作用于上层的一个完全观察到的数据[27]
。设�0是自上而下生成权重,�0
基于深度学习的时序模式识别(3):http://www.youerw.com/jisuanji/lunwen_20079.html
------分隔线----------------------------
推荐内容