2. 西北工业大学 电子信息学院, 陕西 西安 710072
针对小数据集条件下的贝叶斯网络参数学习问题,目前主要通过引入参数约束来优化参数学习过程。根据约束数量的不同,现有的研究分为单一约束和多种约束2种情况。
针对单一约束,Writting等[1]利用定性影响约束构造惩罚函数,并将最大熵函数与惩罚函数结合构造目标优化函数,最后利用改进的APN算法对参数进行求解;Feelders等[2-3]将定性影响条件下的参数学习看作一个保序回归问题,首先采用最大似然估计算法得到参数初始值,然后结合定性影响约束和保序回归法估计参数。Plajner等[4]分别利用梯度下降法、保序回归来处理单调性约束,大幅度提高了参数学习的精度。国内学者周鋆等[5]通过引入平滑先验来优化似然函数,并将定性影响约束作为一个惩罚项与改进后的似然函数构成参数目标优化函数,采用梯度下降方法进行求解。邸若海等[6-7]通过构造单调性约束表示专家经验,然后将单调性约束转化为狄利克雷分布的超参数,进而结合最大后验概率估计获取贝叶斯网络参数。任佳等[8]采用区间约束限制参数学习,将区间约束转化为贝塔分布的超参数,进而结合贝叶斯估计学习参数。黄政等[9]将近似相等的先验约束以正态分布的形式融入到单调性约束的贝叶斯参数学习过程中,提高了参数学习的精度。
由于单一约束方法一般只针对某种特殊的专家知识,限制了专家经验的利用,学习精度一般。因此,利用多种约束进行参数学习受到了更多的关注。Niculescu等[10]和Campos等[11]提出基于凸优化的参数学习方法。Liao等[12]结合EM算法,将约束引入到数据缺失条件下的BN参数学习。Zhou等[13-14]提出约束多项式分布参数学习(multinomial parameter learning with constraints, MPL-C)方法。郭志高等[15]提出基于双重约束的参数学习方法。Rui等[16]提出基于定性最大后验概率(qualitative maximum a posterior, QMAP)的参数学习方法,采用拒绝-接受采样的方法获取满足约束的模型参数,并利用采样所得参数的均值替代先验参数的分布,进而利用MAP计算对应的模型参数的后验估计。与其他算法相比,QMAP算法不仅给出了一个在多约束条件下的贝叶斯网络参数学习通用框架,而且具有较好的学习效果。在此基础上,Guo等[17]利用QMAP算法学习参数,并进一步利用参数约束判断参数的合理性,避免了QMAP算法所得参数不满足约束的情况。然而,当网络复杂度变大,参数约束较多或约束可行域较小时,由于拒绝-接受采用算法本身的随机性,导致难以获得满足约束的参数。从而导致QMAP算法非常耗时。
针对上述问题,本文设计了一种新的约束区域中心点的解析计算方法来替代原有的拒绝-采样方法,在此基础上,提出了CMAP(constrained maximum a posteriori)算法。首先,设计一种新的目标函数,结合参数约束构建一个带约束的目标优化问题;其次,利用一种寻优引擎来求解该目标优化问题获得约束区域的边界点和中心点,最终以获得的中心点作为待求参数的先验分布,并利用MAP求取待求参数的后验估计。
1 贝叶斯网络下面给出贝叶斯网络一般的定义:
定义1 贝叶斯网络[18]由结构G和参数Θ两部分组成。贝叶斯网络的结构为一个有向无环图G=(V, E), 其中节点变量集合V={X1, X2, …, Xn}表示变量, 有向边集合E描述变量间的依赖关系。贝叶斯网络的参数Θ={θi}i=1, 2, …, n为一组条件概率分布, 每个节点存储其自身与其父节点集之间的条件概率分布, 即P(Xi|Pa(Xi))。
即贝叶斯网络包含定性和定量两部分内容。在定性层面, 有向无环图描述变量之间的依赖或独立关系。在定量层面, 条件概率分布表示变量之间依赖程度的大小。
贝叶斯网络通过引入条件独立性完成了联合概率分布的分解, 它将联合概率分布P分解为
![]() |
(1) |
式中, Xi可取离散值和连续值。
2 参数的先验分布及约束类型 2.1 参数先验分布贝叶斯公式将先验分布和似然函数结合, 得到θ后验分布即
![]() |
(2) |
式中, 概率分布P(θ)表示θ的先验知识, 似然函数L(θ|D)=P(D|θ)表示数据集D的影响。在i.i.d条件下, (2)式中L(θ|D)为多项式似然函数的共轭分布, 假设先验分布P(θ)是Dirichlet分布, 即
![]() |
(3) |
则后验分布P(θ|D)也是Dirichlet分布。在观测样本下, θ的后验分布P(θ|D)为
![]() |
(4) |
式中:α为位置参数;
![]() |
(5) |
Dirichlet先验分布中参数的物理意义不明显, 领域专家难以直接确定, 在实际应用中存在困难。根据Dirichlet分布特性, 其条件分布和边缘分布都是Beta分布且Beta分布为二项式分布的共轭分布族, 因此可以通过确定Beta分布中的2个形参来近似表达与其相关的领域知识。
根据贝叶斯估计和领域知识建立的先验Beta分布模型, 在i.i.d条件下(6)式成立
![]() |
(6) |
式中,
![]() |
(7) |
基于小数据集的参数学习, 仅依靠数据已经不能获取满足精度要求的参数。因此, 现在的方法都是将先验知识引入到参数学习过程之中, 来弥补数据的不足。先验知识一般通过不同形式的参数约束来表示, 主要的参数约束如表 1所示。
序号 | 约束类型 | 约束表达式 | 约束意义 |
1 | 规范性约束 | ![]() |
表示父节点取值相同时的所有参数之和为1 |
2 | 区间约束 | 0≤αijk≤θijk≤βijk≤1 | 表示参数属于某一给定的区间 |
3 | 分布内约束 | θijk≤θijk′, ∀k≠k′ | 表示父节点取值相同时的同一分布内参数之间的大小关系 |
4 | 分布间约束 | θij′k≤θijk, ∀j≠j′ | 表示子节点取值相同时的不同分布之间参数的大小关系 |
5 | 近似相等约束 | θi′j′k′≈θijk | 表示任意2个参数之间近似相等 |
6 | 加性协同约束 | θij1k+θij2k≤θij3k+θij4k, ∀i, k | 表示子节点相同时不同父节点取值所对应参数之和的大小关系 |
7 | 乘性协同约束 | θij1kθij2k≤θij3kθij4k, ∀i, k | 表示子节点相同时不同父节点取值所对应参数乘积之间的大小关系 |
首先分析参数约束区域的特点, 分别给出二维和三维情况下约束区域中心点的计算方法。在二维状态下, 假设参数满足以下约束
![]() |
(8) |
通过将约束区域可视化, 图 1中加粗的线条区域就是参数的约束域, 即线段AC。只需获取A点和C点的坐标, 即可获得线段AC的中点。本文将求取点A和C坐标的问题转化为一个带约束的优化问题, 通过公式(9)可以求取点C的坐标, 通过公式(10)可以求取A点的坐标。
![]() |
图 1 二维参数的可行域 |
![]() |
(9) |
![]() |
(10) |
在三维情况下, 假设参数满足以下约束
![]() |
(11) |
从图 2可以看出, 参数的约束区域为△CDE, 类似于二维的情况, 将其转化为一个目标最优化问题, 具体如下
![]() |
图 2 三维参数的可行域 |
![]() |
(12) |
![]() |
(13) |
![]() |
(14) |
下面给出本文参数约束域中心点计算的一般化的方法, 设待求参数
![]() |
式中, 参数对应的子节点状态数为m, 父节点状态数为q。n维空间的单位基向量为e1, e2, …, en, e1=
![]() |
![]() |
(15) |
(15) 当参数不包含分布间约束时, 可根据参数的局部独立性, 将上述高维(mq)的优化问题化简为低维(m)的优化问题。具体如下所示:
![]() |
(16) |
式中, w=1, 2, …, q, 总共需要求解mq个m维的优化问题。
通过(15)~(16)式可以求取约束区域的边界点, 本文通过边界点直接求平均的方式求取约束区域的中心点, 在二维情况下肯定能够获取中心点。在三维情况下, 当约束区域为三角形时, 可以获得约束区域的中心点, 当约束区域为四边形时, 只能获取近似的中心点。在高维情况下, 也会存在只能获取近似中心点的情况。这是本文算法精度稍差于QMAP算法的原因。
3.2 CMAP算法CMAP算法的具体步骤如下:
步骤1 记录样本数据中的节点状态统计量Nij和Nijk。
步骤2 利用优化引擎求解(15)~(16)式, 以求取参数约束的边界点, 进而对边界点进行平均, 获取参数约束的中心点。利用中心点替代待求参数的先验分布, 进而代入最大后验估计公式(17)获取待求参数的后验估计。
![]() |
(17) |
式中:Mijk=A*P(Xi=k|Πi=j, Ω), A为等价样本量。P(Xi=k|Πi=j, Ω)为待求参数的先验分布, 这里用中心点的坐标替代。这是本文算法与QMAP算法最大的不同。QMAP算法是用得到满足约束的参数均值替代参数的先验分布。
步骤3 利用交叉验证方法确定系数A即等价样本量。
步骤4 根据公式(17)完成定性最大后验概率估计。
3.3 算例说明为了更好地解释本文的算法, 接下来通过一个简单的算例来说明。
![]() |
假设图 3中节点B的参数是待求的参数, 此时, 已知的参数约束为
![]() |
图 3 一个简单的贝叶斯网络 |
![]() |
(18) |
θ1, θ2, θ3, θ4组成了4维参数空间, 首先判断参数的约束类型是否包含第2节中的分布间约束, 如果不包含, 则可以利用参数的局部独立性将待求参数进行分解和降维。如果包含, 则无法利用参数的局部独立性将参数进行分解和降维。很明显, 公式(18)中包含分布间约束θ1>θ3, 无法利用参数局部独立性。针对这种情况, 本文利用标准单位基向量构建目标函数
![]() |
(19) |
![]() |
(20) |
![]() |
(21) |
![]() |
(22) |
公式(19)~(22)给出了利用标准基向量构建目标优化函数的方法。利用公式(19)~(22)可以求得参数约束域的4个边界点, 进而将这4个点的坐标进行平均, 用平均所得的点来近似替代参数约束域的中心点。
假设参数约束中不包含分布间约束, 便可利用参数的局部独立性将其分解。具体如下所示:
![]() |
(23) |
![]() |
(24) |
![]() |
(25) |
![]() |
(26) |
由(23)~(26)式可知, 当参数约束中不存在分布间约束时, 可以将原来4维的参数约束空间分解为2个2维的参数约束空间, 降低待求问题的复杂度。
4 仿真结果及分析为了验证本文算法的有效性, 分别利用Asia、Alarm、Win95PTs和Andes网络进行仿真验证。这些网络经常被用于贝叶斯网络的结构和参数学习算法验证, 表 2给出了这几个网络的基本信息。采用平均KL距离来衡量参数学习的精度, 公式(27)给出了KL距离的计算公式, 其中P(X)表示求出的样本分布, Q(X)表示真实的样本分布。采用平均运行时间来衡量算法的效率。本文中的运行时间是通过Matlab中的Tic-Toc指令获取。算法运行20次, 求均值和方差。
![]() |
(27) |
仿真网络 | 网络规模 | 节点数 | 边的数目 | 参数个数 |
Asia | 小 | 8 | 8 | 18 |
Alarm | 中 | 37 | 46 | 509 |
Win95PTs | 大 | 76 | 112 | 574 |
Andes | 超大 | 223 | 338 | 1 157 |
本节考虑参数的分布间约束, 部分仿真结果如表 3所示。
仿真网络 | 样本数量 | ML | ME | MAP | CML | CME | QMAP | CMAP |
Asia | 40 | 15.52±3.50 | 3.90±0.04 | 3.36±0.18 | 3.60±0.57 | 1.82±0.07 | 0.82±0.14 | 1.50±0.04 |
80 | 14.35±3.64 | 3.73±0.06 | 2.62±0.44 | 2.76±0.34 | 1.52±0.02 | 0.60±0.06 | 1.16±0.07 | |
120 | 10.17±2.93 | 2.81±0.24 | 1.98±0.11 | 3.67±0.35 | 1.15±0.13 | 0.45±0.04 | 0.95±0.09 | |
160 | 4.86±2.94 | 2.50±0.28 | 1.56±0.45 | 3.56±0.18 | 1.04±0.0 7 | 0.42±0.06 | 0.84±0.04 | |
200 | 2.56±1.58 | 2.28±0.41 | 1.05±0.54 | 1.79±0.18 | 0.84±0.09 | 0.38±0.06 | 0.71±0.04 | |
Alarm | 40 | 273.04±22.29 | 139.84±2.81 | 118.75±7.37 | 95.88±6.54 | 60.46±1.72 | 33.78±1.17 | 58.14±1.87 |
80 | 275.49±25.36 | 124.45±1.75 | 99.27±3.90 | 102.91±6.29 | 52.45±1.48 | 29.78±0.75 | 49.39±1.59 | |
120 | 262.14±22.68 | 111.18±5.14 | 89.46±5.95 | 96.93±5.50 | 47.84±2.90 | 27.55±1.19 | 45.77±3.07 | |
160 | 243.75±19.58 | 106.12±5.25 | 85.46±3.50 | 97.37±4.52 | 45.97±2.84 | 27.00±1.20 | 43.86±2.10 | |
200 | 229.07±23.50 | 101.64±3.93 | 80.39±5.20 | 94.01±6.24 | 43.96±2.09 | 25.67±1.16 | 42.07±1.80 | |
Win95PTs | 40 | 269.71±22.86 | 152.27±1.38 | 134.34±2.66 | 126.24±6.01 | 96.66±0.74 | 57.98±1.51 | 89.70±1.64 |
80 | 283.48±41.42 | 142.88±1.39 | 124.96±5.51 | 127.38±8.50 | 89.38±1.11 | 55.06±0.66 | 82.96±1.03 | |
120 | 308.45±42.10 | 136.33±1.45 | 121.07±6.28 | 118.95±7.32 | 85.32±0.88 | 53.44±0.36 | 79.86±0.27 | |
160 | 305.57±15.75 | 131.81±1.66 | 114.93±1.34 | 98.69±6.61 | 82.41±0.71 | 51.36±0.19 | 76.86±0.57 | |
200 | 304.90±30.19 | 127.80±1.49 | 114.46±2.38 | 98.19±2.66 | 80.01±0.12 | 50.53±0.60 | 74.90±0.60 | |
Andes | 40 | 1 252.65±37.19 | 271.30±1.96 | 228.02±6.60 | 744.61±30.50 | 119.50±1.62 | 43.24±1.97 | 121.32±3.84 |
80 | 1 046.26±44.69 | 215.98±1.05 | 187.57±6.53 | 636.29±33.50 | 93.18±1.02 | 36.40±0.33 | 92.15±2.75 | |
120 | 892.49±33.50 | 185.69±1.70 | 160.63±5.56 | 566.77±15.83 | 78.12±1.53 | 31.11±2.28 | 75.45±4.80 | |
160 | 868.22±48.74 | 165.74±2.35 | 150.41±5.35 | 542.73±2.77 | 68.62±1.30 | 28.80±2.38 | 67.45±3.73 | |
200 | 780.04±52.41 | 150.57±1.53 | 135.50±7.81 | 515.63±7.81 | 61.99±1.07 | 26.44±0.36 | 60.88±1.17 |
通过对表 3~4和图 4~5中的实验结果进行分析, 可以得到以下结论:
仿真网络 | 样本数量 | ML/10-3 | ME/10-3 | MAP/10-3 | CML/10-3 | CME/10-3 | QMAP/10-3 | CMAP/10-3 |
Asia | 40 | 0.1±0.0 | 82.0±0.4 | 0.2±0.0 | 231.8±4.3 | 218.5±4.3 | 178.4±0.3 | 30.3±0.1 |
80 | 0.2±0.0 | 91.2±0.2 | 0.3±0.0 | 236.4±7.4 | 218.2±7.4 | 197.8±0.3 | 49.4±0.1 | |
120 | 0.2±0.0 | 84.9±0.3 | 0.4±0.0 | 242.1±4.3 | 219.7±1.3 | 217.5±0.3 | 68.6±0.3 | |
160 | 0.3±0.0 | 82.6±0.2 | 0.5±0.0 | 247.5±5.9 | 223.0±5.9 | 236.4±0.3 | 87.4±0.5 | |
200 | 0.3±0.0 | 83.5±0.5 | 0.6±0.0 | 247.6±2.4 | 223.5±2.4 | 255.9±0.7 | 106.8±0.4 | |
Alarm | 40 | 0.1±0.0 | 85.8±1.0 | 0.1±0.0 | 89.2±0.9 | 123.9±0.9 | 412.0±0.4 | 81.1±1.8 |
80 | 0.2±0.0 | 89.8±0.9 | 0.2±0.0 | 96.9±1.9 | 125.8±0.6 | 432.1±0.7 | 106.3±2.8 | |
120 | 0.3±0.0 | 92.1±0.8 | 0.3±0.0 | 99.7±1.1 | 126.2±1.4 | 452.8±0.5 | 132.6±3.1 | |
160 | 0.4±0.0 | 91.1±0.9 | 0.4±0.0 | 103.5±0.2 | 128.1±1.1 | 471.6±0.7 | 154.7±5.1 | |
200 | 0.5±0.0 | 92.0±0.7 | 0.5±0.0 | 105.3±1.3 | 129.6±1.0 | 492.0±0.7 | 176.0±8.8 | |
Win95PTs | 40 | 0.1±0.0 | 90.9±0.6 | 0.1±0.0 | 84.9±0.6 | 117.0±1.1 | 312.4±33.9 | 152.6±0.2 |
80 | 0.2±0.0 | 93.2±0.6 | 0.2±0.0 | 89.3±0.3 | 117.9±0.2 | 343.9±38.2 | 172.3±0.3 | |
120 | 0.3±0.0 | 93.7±0.3 | 0.3±0.0 | 92.2±0.4 | 118.3±0.7 | 381.5±18.0 | 191.2±0.6 | |
160 | 0.4±0.0 | 95.0±0.8 | 0.4±0.0 | 94.4±0.3 | 118.7±0.5 | 410.2±18.0 | 211.3±0.4 | |
200 | 0.5±0.0 | 95.0±0.9 | 0.5±0.0 | 95.4±0.4 | 119.7±0.2 | 433.6±17.4 | 230.3±0.2 | |
Andes | 40 | 0.2±0.0 | 111.7±0.1 | 0.2±0.0 | 135.9±0.8 | 144.8±0.5 | 179.8±0.3 | 55.5±0.5 |
80 | 0.3±0.0 | 109.9±0.3 | 0.3±0.0 | 143.2±0.1 | 144.8±0.4 | 203.3±0.1 | 75.7±0.2 | |
120 | 0.4±0.0 | 109.6±0.1 | 0.4±0.0 | 147.1±0.6 | 144.8±0.1 | 226.9±0.2 | 96.5±0.2 | |
160 | 0.5±0.0 | 110.0±0.2 | 0.5±0.0 | 149.3±0.8 | 144.0±0.1 | 250.2±0.2 | 117.1±0.2 | |
200 | 0.6±0.0 | 110.1±0.5 | 0.6±0.0 | 151.7±0.2 | 144.7±0.5 | 271.9±0.2 | 137.7±0.1 |
![]() |
图 4 不同算法的平均运行时间比较(Alarm网络) |
![]() |
图 5 不同算法的平均KL距离比较(Alarm网络) |
1) 所有算法的学习精度排序为QMAP>CMAP>others。
2) 所有算法运行时间的大致排序为QMAP>CME>CMAP>others。
3) 本文提出的CMAP的学习精度稍差于QMAP算法, 但运行效率高于QMAP算法。
4.2 仿真实验2本节不考虑参数的分布间约束, 则可通过公式(16)对公式(15)进行降维, 通过对表 5~6和图 6~7中的实验结果进行分析, 可以得到以下结论:
仿真网络 | 样本数量 | ML | ME | MAP | CML | CME | QMAP | CMAP |
Asia | 40 | 7.58±1.50 | 3.85±0.28 | 2.28±0.90 | 5.77±1.57 | 1.91±0.35 | 0.83±0.16 | 1.49±0.13 |
80 | 8.60±2.52 | 3.11±0.11 | 2.16±0.87 | 6.99±1.34 | 1.63±0.41 | 0.73±0.06 | 1.31±0.27 | |
120 | 9.02±2.26 | 2.82±0.37 | 1.63±0.27 | 7.62±1.35 | 1.36±0.13 | 0.70±0.08 | 1.07±0.10 | |
160 | 7.39±2.62 | 2.46±0.14 | 1.50±0.30 | 6.54±1.18 | 1.26±0.07 | 0.62±0.12 | 1.02±0.09 | |
200 | 6.40±2.58 | 2.35±0.10 | 1.47±0.29 | 6.50±1.18 | 1.22±0.06 | 0.58±0.06 | 1.01±0.14 | |
Alarm | 40 | 291.17±33.07 | 139.75±3.69 | 118.26±11.76 | 119.34±10.73 | 85.48±3.71 | 41.09±2.41 | 79.87±5.17 |
80 | 250.65±25.93 | 124.12±5.21 | 97.88±7.70 | 119.27±10.87 | 74.33±3.12 | 37.46±1.81 | 69.73±3.45 | |
120 | 231.28±26.27 | 113.62±3.91 | 89.23±6.45 | 114.79±7.04 | 68.68±2.65 | 34.71±1.33 | 63.94±2.95 | |
160 | 243.75±19.58 | 106.85±3.09 | 82.50±4.61 | 105.81±4.52 | 64.76±1.97 | 32.64±1.06 | 59.84±2.50 | |
200 | 204.81±15.27 | 99.78±1.97 | 78.55±4.62 | 99.48±4.24 | 60.95±1.75 | 30.32±1.10 | 56.96±2.24 | |
Win95PTs | 40 | 243.21±34.33 | 153.13±1.20 | 133.16±6.02 | 128.15±6.01 | 106.36±2.50 | 64.34±1.07 | 99.38±2.38 |
80 | 314.25±51.42 | 143.58±1.57 | 127.32±3.70 | 152.78±8.50 | 97.97±1.26 | 60.56±1.44 | 91.02±2.30 | |
120 | 342.26±52.10 | 136.31±0.87 | 126.46±3.90 | 156.71±11.32 | 92.79±1.16 | 57.56±1.79 | 86.22±2.24 | |
160 | 360.02±37.02 | 130.75±1.24 | 123.28±2.56 | 161.05±16.61 | 86.15±0.57 | 55.49±1.15 | 76.86±0.57 | |
200 | 355.96±50.76 | 127.14±0.74 | 119.28±4.84 | 145.57±22.66 | 132.26±1.70 | 53.56±0.94 | 79.12±1.11 | |
Andes | 40 | 1 365.36±70.07 | 272.13±2.01 | 242.97±7.91 | 785.21±27.65 | 132.26±1.70 | 48.97±1.37 | 130.08±1.98 |
80 | 1 145.18±63.38 | 215.28±1.93 | 201.50±6.03 | 681.91±30.42 | 101.50±1.47 | 40.71±1.07 | 99.21±1.03 | |
120 | 960.89±56.62 | 185.86±2.79 | 170.67±7.11 | 604.48±28.40 | 85.44±1.13 | 34.64±0.95 | 82.79±2.08 | |
160 | 900.49±74.10 | 165.42±2.85 | 155.44±8.54 | 566.47±31.05 | 74.51±1.17 | 30.61±0.30 | 72.73±1.20 | |
200 | 852.74±67.54 | 148.97±2.67 | 143.92±9.74 | 530.65±29.11 | 66.20±1.11 | 28.33±1.04 | 65.17±0.93 |
仿真网络 | 样本数量 | ML/10-3 | ME/10-3 | MAP/10-3 | CML/10-3 | CME/10-3 | QMAP/10-3 | CMAP/10-3 |
Asia | 40 | 0.2±0.0 | 192.0±5.2 | 0.2±0.0 | 211.5±9.0 | 209.9±3.4 | 182.3±0.6 | 32.0±0.2 |
80 | 0.3±0.0 | 188.5±5.7 | 0.3±0.0 | 214.6±9.1 | 208.6±4.0 | 201.4±0.4 | 51.9±0.2 | |
120 | 0.4±0.0 | 192.8±4.4 | 0.4±0.0 | 223.1±4.5 | 209.5±3.5 | 223.6±0.6 | 72.6±0.2 | |
160 | 0.5±0.0 | 191.0±5.2 | 0.5±0.0 | 230.1±5.9 | 209.4±2.8 | 242.2±0.7 | 92.6±0.6 | |
200 | 0.6±0.0 | 192.7±2.5 | 0.6±0.0 | 235.7±6.8 | 210.7±2.9 | 262.4±1.4 | 113.0±0.9 | |
Alarm | 40 | 0.1±0.0 | 85.1±0.8 | 0.1±0.0 | 75.7±1.3 | 114.4±1.1 | 416.6±0.6 | 81.1±1.8 |
80 | 0.2±0.0 | 87.4±1.2 | 0.2±0.0 | 81.9±1.8 | 115.2±1.1 | 436.9±0.5 | 116.7±11.7 | |
120 | 0.3±0.0 | 90.6±2.2 | 0.3±0.0 | 84.5±1.4 | 116.7±0.9 | 457.0±0.8 | 137.5±13.7 | |
160 | 0.4±0.0 | 91.0±1.5 | 0.4±0.0 | 86.0±1.2 | 116.9±0.5 | 477.1±0.6 | 155.6±10.6 | |
200 | 0.5±0.0 | 92.4±1.8 | 0.5±0.0 | 88.5±1.4 | 117.0±0.5 | 497.0±0.4 | 177.8±13.2 | |
Win95PTs | 40 | 0.1±0.0 | 93.5±0.5 | 0.1±0.0 | 75.9±0.9 | 111.7±0.6 | 138.9±0.2 | 215.2±29.4 |
80 | 0.2±0.0 | 95.1±0.4 | 0.2±0.0 | 80.9±1.4 | 112.0±0.7 | 158.6±0.2 | 272.2±36.4 | |
120 | 0.3±0.0 | 95.9±0.8 | 0.3±0.0 | 83.6±1.4 | 111.8±0.3 | 178.7±0.1 | 307.2±25.6 | |
160 | 0.4±0.0 | 96.8±0.8 | 0.4±0.0 | 86.0±1.3 | 112.2±0.4 | 198.8±0.4 | 329.1±20.4 | |
200 | 0.5±0.0 | 97.7±1.0 | 0.5±0.0 | 87.3±1.2 | 119.7±0.4 | 218.8±218.8 | 353.4±23.7 | |
Andes | 40 | 0.2±0.0 | 112.7±0.8 | 0.2±0.0 | 122.4±0.7 | 134.4±0.5 | 171.9±0.2 | 78.3±7.4 |
80 | 0.3±0.0 | 111.1±0.5 | 0.3±0.0 | 129.2±0.6 | 133.6±0.3 | 192.1±0.2 | 98.7±8.6 | |
120 | 0.4±0.0 | 111.4±0.6 | 0.4±0.0 | 133.0±0.4 | 133.7±0.4 | 212.4±0.1 | 120.8±10.5 | |
160 | 0.5±0.0 | 111.2±0.3 | 0.5±0.0 | 136.9±0.5 | 133.4±0.3 | 232.5±0.3 | 140.4±8.9 | |
200 | 0.6±0.0 | 111.2±0.2 | 0.6±0.0 | 139.0±0.5 | 133.3±0.3 | 252.7±0.3 | 160.6±8.1 |
![]() |
图 6 不同算法的平均KL距离比较(Alarm网络) |
![]() |
图 7 不同算法的平均运行时间比较(Alarm网络) |
1) 所有算法的学习精度排序为QMAP>CMAP>others。
所有算法的运行时间的大致排序为QMAP>CME>CMAP>others
5 结论为了提高QMAP算法的学习效率同时又不影响其学习精度,本文设计了一种新的约束区域中心点的解析计算方法来替代原有的拒绝-接受采样计算方法。仿真实验证明,本文提出的CMAP算法的参数学习精度稍差于QMAP算法,但计算效率比QMAP算法高出一个量级。缺点是CMAP算法仍涉及最优化问题求解的引擎,引擎的优劣直接决定了算法的时效性,下一步研究工作是引入更高效的引擎用于求解参数约束域的中心点,进一步提高本文提出的参数学习方法的效率。
[1] | WITTIG F, JAMESON A. Exploiting qualitative knowledge in the learning of conditional probabilities of Bayesian networks[C]//Proceedings of the Sixteenth International Conference on Uncertainty in Artificial Intelligence, California, 2000 |
[2] | FEELDERS A, GAAG L. Learning Bayesian network parameters under order constraints[J]. International Journal of Approximate Reasoning, 2006, 42(1/2): 37-53. |
[3] | MASEGOSA A R, FEELDERS A J, GAAG L C V D. Learning from incomplete data in Bayesian networks with qualitative influences[J]. International Journal of Approximate Reasoning, 2016, 69: 18-34. DOI:10.1016/j.ijar.2015.11.004 |
[4] | MARTIN Plajner, JIRÍVomlel. Learning bipartite Bayesian networks under monotonicity restrictions[J]. International Journal of General Systems, 2020, 49(1): 88-111. DOI:10.1080/03081079.2019.1692004 |
[5] | ZHOU Y, FENTON N, ZHU C. An empirical study of Bayesian network parameter learning with monotonic influence constraints[J]. Decision Support Systems, 2016, 87: 69-79. DOI:10.1016/j.dss.2016.05.001 |
[6] |
邸若海, 高晓光, 郭志高. 基于单调性约束的离散贝叶斯网络参数学习[J]. 系统工程与电子技术, 2014, 18(5): 272-277.
DI Ruohai, GAO Xiaoguang, GUO Zhigao. Parameter learning of discrete Bayesian networks based on monotonicity constraints[J]. Systems Engineering and Electronics, 2014, 18(5): 272-277. (in Chinese) |
[7] | DI Ruohai, GAO Xiaoguang, GUO Zhigao. Learning Bayesian networks parameters under new monotonic constraints[J]. Journal of Systems Engineering and Electronics, 2017, 28(6): 1248-1255. DOI:10.21629/JSEE.2017.06.22 |
[8] |
任佳, 高晓光, 白勇. 信息不完备小样本条件下离散DBN参数学习[J]. 系统工程与电子技术, 2012, 34(8): 1723-1728.
REN Jia, GAO Xiaoguang, BAI Yong. Discrete DBN parameter learning under the condition of incomplete information with small samples[J]. Systems Engineering and Electronics, 2012, 34(8): 1723-1728. (in Chinese) |
[9] |
曾强, 黄政, 魏曙寰. 融合专家先验知识和单调性约束的贝叶斯网络参数学习方法[J]. 系统工程与电子技术, 2020, 42(3): 642-656.
ZENG Qiang, HUANG Zheng, WEI Shuhuan. Bayesian network parameter learning method based on expert prior knowledge and monotonicity constraint[J]. Systems Engineering and Electronics, 2020, 42(3): 642-656. (in Chinese) |
[10] | NICULESCU R, MITCHELL T, RAO B. Bayesian network learning with parameter constraints[J]. Journal of Machine Learning Research, 2006, 7(1): 1357-1383. |
[11] | CAMPOS C, JI Q. Improving Bayesian network parameter learning using constraints[C]//Proceedings of the Nineteenth International Conference on Pattern Recognition in Florida, 2008 |
[12] | LIAO Wenhui, JI Qiang. Learning Bayesian network parameters under incomplete data with domain knowledge[J]. Pattern Recognition, 2009, 42(11): 3046-3056. DOI:10.1016/j.patcog.2009.04.006 |
[13] | ZHOU Y, FENTON F, NEIL M. Bayesian network approach to multinomial parameter learning using data and expert judgments[J]. International Journal of Approximate Reasoning, 2014, 55(5): 1252-1268. DOI:10.1016/j.ijar.2014.02.008 |
[14] | ZHOU Y, FENTON N, HOSPADALES T, et al. Probabilistic graphical models parameter learning with transferred prior and constraints[C]//Proceedings of the Thirty First International Conference on Uncertainty in Artificial Intelligence, 2015 |
[15] |
郭志高, 高晓光, 邸若海. 小数据集条件下基于双重约束的BN参数学习[J]. 自动化学报, 2014, 40(7): 1509-1516.
GUO Zhigao, GAO Xiaoguang, DI Ruohai. BN parameter learning based on double constraints under the condition of small dataset[J]. Acta Automatica Sinica, 2014, 40(7): 1509-1516. (in Chinese) |
[16] | RUI Chang, Shoemaker R, WEI Wang. A novel knowledge-driven systems biology approach for phenotype prediction upon genetic intervention[J]. IEEE/ACM Transactions on Computational Bioinformatics, 2011, 3(8): 683-697. |
[17] | GUO Z G, GAO X G, REN H, et al. Learning Bayesian network parameters from small data sets: a further constrained qualitatively maximum a posteriori method[J]. International Journal of Approximate Reasoning, 2017, 91(12): 22-35. |
[18] | HECKERMAN D, WELLMAN M P. Bayesian networks[J]. Communications of ACM, 1995, 38(3): 27-30. DOI:10.1145/203330.203336 |
2. School of Electronic and Information, Northwestern Polytechnical University, Xi'an 710072, China