一、3—维列联表中对数线性模型的选择策略(论文文献综述)
杨磊[1](2021)在《通用加工树模型假设检验的统计等价理论及其应用》文中指出随着数学心理学的发展,认知心理测量模型成为了认知心理研究的重要组成部分,它促进了认知心理测量理论的发展,使得认知心理测量更精准。多项式加工树(multinomial processing tree,MPT)模型是一种用于测量和分析潜在认知过程的有效统计建模方法。它是基于发生逻辑开发的分类数据测量模型,也是针对人类潜在认知加工过程构建的认知心理测量模型,并将其直观地构建为多项式加工树的形式。目前MPT模型已在认知心理学、认知神经学等领域得到了成功的应用,特别是在源监测、再认启发、存储提取、联合再认等范式中获得了极大的成功。从结构上,MPT 模型分为二链 MPT(binary MPT,BMPT)模型和多链 MPT(multi-link MPT,MMPT)模型。许多学者分别从MPT模型的表示形式、参数类型、个体差异等方面进行了扩展研究,并统称为通用加工树(general processing tree,GPT)模型。在许多复杂的认知任务中,人们观测到的响应或行为通常是几种不同认知过程共同加工的结果,而表层的统计分析(如t检验、ANOVA等)虽揭示了其组间差异,但无法区分观测响应是由认知加工导致的还是由反向倾向或猜测导致的,而GPT模型不但能够区分这些混淆而且能够对潜在认知加工过程各阶段的潜在认知能力进行测量和检验。为了检验潜在认知能力的差异,GPT模型的假设检验是通过模型的参数约束来实施的。虽有许多学者对其进行了研究但仍有一些问题需要探讨。首先,GPT模型的参数约束类型和重新参数化过程 系统深入地探讨。虽然已有研究讨论了 GPT模型的相等约束和次序约束,但在广度上GPT模型参数约束的类型缺少系统研究,在深度上其重新参数化过程的统计等价和共同特征有待深入挖掘。其次,GPT模型假设检验的统计等价问题需要深入研究,特别是MMPT模型。MMPT模型假设检验问题已有的处理方法是将MMPT模型等价转化为BMPT模型,但这通常会导致认知加工结构发生变化、模型参数失去了原有心理学含义且等价模型结构过于复杂。最后,GPT模型的计算机编码即字符串编码唯一性问题和假设检验的字符串处理也有待解决。目前,除了 GPT模型简单的相等约束和次序约束可以计算机自动实施外,其它参数约束均需要建模者手工构建,其主要原因是缺少有效的模型编码解码算法,故GPT模型的字符串编码和解码唯一性的问题也需要进行探索。故为了更好地使用GPT模型测量潜在认知过程,本文重点关注GPT模型假设检验的统计等价理论和字符串编码及其应用的探讨,主要研究的内容如下所示:第一,整合了 GPT模型基本概念的形式化描述,为GPT模型假设检验问题的探讨提供了形式规范。本文归纳并整合了 GPT模型的四要素、参数分类模型、数学等价、统计等价、和分裂变换等基本概念并给出了形式化描述(用统一的数学表达式来表示多个相似过程或结果)。同时,也探讨了 GPT模型的识别性、模型方程唯一性和统计等价构建定理等基本理论。第二,系统探讨了 GPT模型参数约束类型,并基于参数约束重新参数化的共同特征提出了代表树模型。在GPT模型框架下,潜在认知加工能力的差异性检验可通过GPT模型的假设检验来完成,而GPT模型的假设检验需要通过其参数约束来实施。故本文从参数约束关系、约束参数向量间关系和约束参数个数这三个维度探讨了 GPT模型假设检验的参数约束类型,并分别讨论了每种参数约束类型的重新参数化过程以及其认知加工结构的递归特性,并根据这些认知加工结构的共同特征提出了 GPT模型参数约束的四个代表树模型。通过对代表树模型的递归嵌套可以方便处理GPT模型参数约束条件的等价转化问题,能够为GPT模型的统计分析提供增长工具箱。第三,归纳出GPT模型参数约束表示定理和GPT模型统计封闭性的等价转化过程。为了确保潜在认知能力测量结果的有效性,GPT模型假设检验的实施需要模型的变换过程是统计等价的。为了尽可能地维持GPT模型的原有认知过程,参数约束的等价变换仅针对约束参数所在约束节点的认知加工结构进行统计等价变换,而非约束节点的认知加工结构保持不变。根据GPT模型参数约束各个类型及其重新参数化的统计等价变换过程,归纳了 GPT模型统计封闭性的等价转化过程,同时给出了参数约束的形式定义和表示定理,并总结出GPT模型假设检验的基本步骤和化繁为简的统计等价转化思路(次序约束→乘积约束→相等约束→常数约束→无约束)。进而可把带有参数约束的GPT模型统计等价地转化为无约束条件的GPT模型,完成了 GPT模型统计封闭性的等价过程。第四,提出了新的具有唯一性的GPT模型字符串语言编码解码算法。为了使GPT模型能够被计算机识别并自动执行其假设检验问题,GPT模型通常需要编码为字符串语言的形式。故本文以已有研究的基础上给出了 GPT模型字符串编码的递归定义、编码和解码规则,以及GPT模型字符串语言参数子树判别定理和节点子树判别定理及其证明。新算法不但能够实现GPT模型编码和解码字符串具有唯一性,而且使得字符串语言能很好地捕获整个GPT模型类。并根据GPT模型参数约束重新参数化过程的递归特性归纳出基于代表树模型字符串词语的递归替换规则。新的替换规则可以通过字符串词语的递归替换可实现GPT模型参数约束的统计等价变换。本文对GPT模型字符串编码解码算法的改进,既扩展了 GPT模型的字符串编码理论,有利于GPT模型的计算机编程、存储和传输。此外,基于代表树模型的模块化编码也为计算机自动实施GPT模型参数约束提供了可行性和理论支持,丰富了 GPT模型的统计分析理论和技术。最后,通过对图片优势效应源监测、文学作品中年龄差异源监测和四则混合运算认知测量三个心理学研究实例,展示了本文所探讨的GPT模型假设检验统计等价理论的可行性与实用性。在实例1图片优势的源监测中,通过实例展示了同一实验组内GPT模型相等约束和次序约束等价过程,并在已有研究结果的基础上提出了新的假设检验问题,GPT模型分析结果不但支持图片优势效应,而且进一步给出了次序约束量化指标的估计值和置信区间。实例2是文学作品阅读中年龄差异的源监测,并展示了同一实验组内和不同实验组间GPT模型假设检验的等价过程,不但分析了年轻人和好老年人对文学作品人物角色记忆的源监测分析,而且也验证了已有结果同时还提供了更加丰富的解释。实例3是用GPT模型测量了小学生四则混合运算的认知能力,同时展示了 GPT模型字符串编码具体实施过程,并将GPT模型分析的结果与独立样本t检验结果进行了比较,t检验仅能得到乘除题和混合题存在显着差异,而GPT模型还可得到两个班级在计算正确率参数和计算顺序参数存在显着差异。由此可知,GPT模型分析能够为潜在认知加工测量中提供更丰富的诊断信息,通过GPT模型可以支持和增强作者的原始分析和特定的统计测量,或至少可作为传统实证测量的补充。综上所述,本文系统地探讨了潜在认知测量模型GPT模型的统计等价理论和应用,即探讨了 GPT模型假设检验的参数约束类型及其重新参数化过程,提出了重新参数化的代表树模型,同时提出了 GPT模型字符串编码算法及基于代表树模型的替换规则。换句话说,根据GPT模型典型认知加工结构的共同特征归纳出参数约束等价变换的四个代表树模型。为了便于GPT模型假设检验的计算机编码,提出了新的GPT模型字符串编码和解码算法,新的编码算法使得GPT模型编码具有唯一性且大大简化了模型的存储和传输,同时总结了基于代表树模型字符串词语模块的递归替换规则。新的编码算法和递归替换规则为GPT模型假设检验问题的计算机传输、编码和自动执行提供了理论支撑。总之,本文的研究完善了 GPT模型潜在认知测量理论,扩展了 GPT模型的统计分析理论和统计建模技术,丰富了 GPT模型对潜在加工能力的可解释性,更有利于了 GPT模型的应用和推广。这将使潜在认知加工测量的研究推向更深层次,进一步完善认知心理测量模型的模型分析的理论体系。
王慧[2](2020)在《交互作用分析与Ⅰ型错误控制中的若干问题》文中研究表明第一部分介绍了交互作用的定义、分类、研究意义和国内外相关研究进展,讨论了相加交互作用和相乘交互作用的关系,详细综述了相乘和相加交互作用分析相关的技术细节,包括交互作用的研究设计、分析模型、分析程序、结果报告和解释;讨论了分析中模型和程序的选择、分析中评价指标的选择、可信区间计算方法的选择。随后,通过一个实例分析,展示了交互作用分析过程和结果报告的格式。本文旨在帮助研究者深入理解医学研究中的交互作用,并为在分析中选择合适的模型和方法提供参考。接着,进一步综述了交互作用分析中的常用技术和常见问题,常用技术包括数据变换和分析方法,交互作用分析中的常见问题包括多重共线性问题、正确使用标准化回归系数、交互作用与非线性效应的区分、缺失值填补。最后,综述了交互作用筛选中涉及的统计方法。此外,在附录中推导了基于Wald检验的广义线性模型中交互作用分析的样本量估计公式。第二部分首先从一个假设检验中的各种错误指标的基本定义与关系出发,推及多个假设检验下Ⅰ型错误控制,回顾了 Ⅰ型错误控制指标总Ⅰ型错误率(FWER)和错误发现率(FDR)的发展历史,二者之间的联系与区别。系统综述了 Ⅰ型错误控制中的常用公式、常用指标、常用软件(SAS和R)及其软件实现细节。随后,介绍了 Ⅰ型错误控制中的一类方法:闭包检验与分层分析,并介绍了常见FWER控制方法与闭包检验相结合的例子。最后,综述了处理多个假设检验之间相关的方法,其中最着名的方法是Candes等(2018)提出的基于Lasso惩罚的Model-X knockoff框架。第三部分探讨了 Model-X knockoff框架用于高维变量选择中的Ⅰ型错误控制,把Model-X knockoff框架推广到MCP和SCAD两种非凸正则化方法和极高维变量选择方法SIS中。模拟研究显示:采用Model-X knockoff框架结合正则化方法和SIS后,能降低单用正则化方法和SIS的FDR,并有效控制到指定水平附近,筛选变量个数显着降低,但是功效会下降,FNR和FPR水平差异不大,三种正则化方法和SIS结合knockoff框架的方法筛选的变量个数、功效、FNR和FPR非常接近,只在个别情况下,Lasso的功效稍高。探索了把Model-X knockoff框架用于二阶段交互作用筛选方法中主效应的FDR控制,模拟结果显示,控制主效应的FDR,可以降低主效应和交互效应的筛选个数,筛选出主效应的功效和筛选出交互效应的概率仍然很高。此外,附录中列出了Ⅰ型错误控制的相关专着和国内外综述。最后总结了前面两部分需要特别注意的地方,讨论了第三部分模拟研究中发现的问题,最后,提出了本研究进一步的研究方向。
滑梦珂[3](2020)在《人口普查净误差及其构成部分的估计方法研究》文中研究表明由于受到人口流动、无回答和其它各种因素影响,人口普查提供的全国人口登记总数不可避免地偏离真实人口总数。因此,人口普查质量评估已成为人口普查工作的重要组成部分,本文的主要研究内容即为人口普查净误差、普查漏报人口和多报人口的估计方法。本文的研究目标定位于探究“英国方案”视角下的人口普查净误差三系统估计方法和普查漏报的比率估计方法。首先对英国人口普查的基础理论、构造方法和技术细节进行了深入的研究与解读,主要从ONC项目、CCS调查、估计方法、“英国方案”与“美国方案”的不同之处四个方面进行解读;其次,探究英国思路下基于三系统估计量估计真实人口数的技术细节,同时对估计普查漏报人口的细节进行完善,该部分主要是对事后层的划分、模型的选择、如何估计不同模型下在三次调查中均无登记的人口数、以及漏报人口比率估计量的构造进行阐释,其中事后层的划分和漏报人口的比率估计量是本文的创新点;最后以2015年全国1%人口抽样调查数据为基础,使用随机模拟对本文研究的方法进行稳健性验证,并且对本文探究方法的构造过程进行演示,为相关人员提供指导,同时为2020年中国第七次全国人口普查提供宝贵的可复制经验与方法支持。本文的数值模拟结果表明“英国方案”下的三系统估计量估计的人口普查净误差为4298人,漏报人口为3683人。随机模拟的结果表明“英国方案”下的三系统估计量估计结果的偏差、均方误差、方差均值均最小。因此,建议中国在以后的人口普查质量评估中考虑使用英国思路下的三系统估计量估计普查年人口总数。
丁文姚[4](2020)在《我国科研工作者科学数据引用行为模式研究》文中提出科学数据引用是数据密集型科学研究范式中科研工作者普遍的信息行为,规范引用科学数据近年来受到了学术界和国家政策管理部门的持续关注,2018年国务院发布《科学数据管理方法》和国家标准《信息技术科学数据引用》(GB/T 35294-2017),为我国科学数据的引用实践与管理工作提出新的要求。作为重要的科学数据用户,科研工作者需要在学术成果表达中规范呈现、引用科学数据,以提高科学数据可见性、促进科学数据共享,从而有效发挥科学数据的科研价值并推动科学研究的发展。基于此,本研究从科研工作者的科学数据引用行为结果出发,聚焦探究期刊论文中的科学数据引用行为,旨在描述不同学科领域对科学数据的引用现状,揭示科学数据引用行为模式特征与关联性,挖掘不同学科领域的科学数据引用行为模式差异。本研究结合《信息技术科学数据引用》(GB/T 35294-2017)从18个维度构建科学数据引用行为内容分析类目系统,并以此编制科学数据引用行为模式的研究变量集;以中国知网(CNKI)期刊全文数据库为数据来源抽取不同学科领域12种学术期刊的20172019年每年第一期论文,经调研771篇样本论文,通过人工编码方法从中识别4992条明确的科学数据引用并根据内容分析类目系统对引用片段进行多维度编码。针对编码数据,首先通过不同维度的类别数据频数统计分布揭示期刊论文中科研工作者的科学数据引用行为模式特征,主要从引用标注方式、引用呈现形式、引用位置、引用标记标注位置、引用来源信息标注位置、数据来源标题、唯一标识符和解析地址八个方面反映科学数据引用行为特征,从创建时间、创建者、传播者、来源国家、形式和内容类型六个方面反映被引用科学数据的特征;随后通过卡方检验、对数线性模型、对应分析方法分析引用行为模式特征变量间的关联关系与影响效应,并揭示不同学科领域科研工作者的科学数据引用行为模式差异。研究发现:总体上,科研工作者在期刊论文中的科学数据引用行为较为普遍,科学数据引用数量逐年提高,但不规范引用行为普遍存在;科研工作者对科学数据不同引用元素的标注程度存在差异,其中关于科学数据唯一标识符和解析地址的不规范引用尤为突出,主要与引用标注方式和科学数据的传播者类型相关;科研工作者的引用标注方式、引用标记标注位置与引用来源信息标注位置共同反映了有连带性的科学数据引用标注行为系列,目前呈现两种较为普遍的引用标注行为系列表现,分别为“引用之处使用标记&参考文献注明来源”和“无标记&引用之处直接说明来源”,两种表现模式中具体的引用标记位置和来源信息标注位置形成了较为固定的搭配,同时,科学数据的创建者和传播者类型对科研工作者的引用标注行为系列表现具有显着影响作用。不同学科领域科研工作者的科学数据引用行为模式具有差异:其一,科学数据引用程度存在差异,自然科学与工程技术领域对科学数据的引用量日益增加且高于总体平均水平,而社会科学和人文学科领域的科学数据引用数量较为稳定且低于平均水平;其二,科学数据类型的引用倾向存在差异,主要表现在科学数据的创建时间、创建者和内容类型三个方面,自然科学与工程科技领域引用的科学数据时间跨度较长、类型丰富,较倾向引用个人或团队研究者形成的科学研究数据,社会科学领域引用的科学数据及时性较强,倾向引用组织机构创建的调查统计类科学数据,而人文学科领域较倾向引用形成时间久远的事实描述类科学数据;其三,科学数据引用来源信息的位置存在明显差异,自然科学与工程科技领域的科研工作者基本在论文的文后参考文献列表中标注,社会科学领域中较多在论文正文内直接描述说明,人文学科领域中较多通过注释标注在页脚中,该差异主要受学科科研范式和固有引用标注习惯的影响;其四,科学数据的引用位置倾向具有较大差异,科学数据在不同学科科研活动中的引用功能存在一定差异。
孙旭,贾丽,邓敏薇[5](2019)在《网络社区发现算法在流动表建模中的设计与应用》文中指出代际流动表可以统计子代与其父代社会地位配对数据的交互频数,反映了社会资源占有的优劣势在父子两代人之间的比较。对财富、阶级、特权等社会基本特征演变的实证考察,均依赖于代际流动表的量化分析。对数线性模型是流动表建模分析的基本工具,通过对列联表单元格频数进行拟合,可以识别流动表行分类与列分类之间的强弱交互效应,刻画父子社会地位间的交互结构。本文利用复杂网络社区发现算法分析父子社会地位的关联结构,针对简约对数线性模型拟合精度不够的问题,提出一种新的建模思路:利用社区发现算法对简约对数线性模型的残差列联表进行关联关系挖掘,将发现的社区效应作为附加参数约束引入原对数线性模型,以改善数据的拟合情况。由于该方法只在原简约对数线性模型中增加了一个参数约束,因此仍可以保证建模结果的简洁性及理论意义,同时社区效应补充了原对数线性模型对经验数据结构的解读。论文用此方法对来源于中国综合社会调查数据的经验代际职业流动表进行建模分析,较好地解释了子代职业阶层与父代职业阶层间的关联模式。
徐玲丽,陈雪东[6](2018)在《高维分类数据的关联关系及可压缩性分析》文中认为对于高维情形而言,研究变量之间的关联关系及可压缩性是重要和繁琐的.首先,给出了基于对数线性模型和关联图的压缩性定理;然后,讨论了基于条件互信息可压缩性排序的问题,并通过三个不同的实例进行验证分析.研究结果为直观简便地分析高维分类数据的关系及结构提供了方法.
徐玲丽,陈雪东[7](2017)在《基于Bootstrap方法的对数线性模型构建》文中提出对于不易进行数据收集的分类变量,通常得到的样本是有限的.如果仅用这些数据构建变量间的对数线性模型往往缺乏可靠性,而且对各交互项的参数估计精度可能较低.针对该问题,提出先用Bootstrap抽样法产生多份一定量的数据集,分别模拟它们的对数线性模型,得到模型各个参数的估计向量,然后对所有参数的估计向量进行聚类,得到若干份各参数估计的向量.实验结果表明,即使各参数与真实模型的各个参数有差异,这若干个参数估计向量对应的模型的概率分布与真实模型的概率分布的K-L距离都较小,即概率分布很接近,并且在这若干个向量中,越靠近对应参数的置信区间,它与真实的概率分布的K-L距离越小.
戴建国[8](2017)在《对数线性模型的选择方法及其应用》文中提出为构造最佳对数线性模型,通过λ系数构造λ相关系数矩阵,将其作为对数线性模型中交互项选择的方法,并用于分析肺癌治疗数据。结果表明,选出的交互项可以构造最佳的模型对数据进行准确的分析,因此在应用对数线性模型分析前,先用相关系数矩阵进行探索性研究分析是很有必要的。
徐玲丽[9](2018)在《高维分类数据的关联关系及可压缩性分析》文中提出通常情况下,统计学研究的数据类型可以根据测量的尺度分为定性数据和定量数据两种类型。所谓的定性数据是一组表示事物性质、规定事物类别的文字表述型数据,在统计学上的包括分类数据和顺序数据。对于定性数据中的分类数据,主要研究的内容及结论除了基于logistics模型的回归分析之外,更多的是变量与变量间的关联关系或相关关系,特别对于多维的情形,各变量间复杂的关系和关联结构是研究的重点,也是难点。分类数据常见于社会科学各领域,特别是出现在各种调查问卷收集的结果,以及医学和心理学等方面的数据中。由于涉及的问题和因素众多,这些结果常常以高维列联表的形式呈现。对于高维列联表而言,直接作分析是很困难且很繁琐的,因此需要对其进行简化,这就需要研究变量之间的各种关系,包括是否独立?是否相关?是否既不独立也不相关?如果有关系,结构如何?是否可以用函数表示等等一系列问题。于是,我们从最基础的独立性检验问题出发展开讨论。用于独立性假设检验的卡方检验和似然比检验需要在大样本的数据容量下才能保证其参数的有效性和稳定性,而高维列联表必定会使每个单元格频数显着降低,解决这个问题可以有两个想法,一是收集更多的样本,增加每个单元格的数据容量,二是通过压缩变量增加单元格数量,即对原有的高维列联表进行压缩。对于第一个想法,关键是增加样本量,而当这些变量中有涉及到抽象的,现有数据集中不存在的变量时,就必须采取问卷调查的形式来获取相应数据,通常以这种消耗人力又耗时的方法得到的数据量是非常有限的。而第二个想法,自从Simpson于1951年提出辛普森悖论,对高维列联表的压缩成为了一个值得研究的问题,若对高维列联表压缩不当,就会出现虚假相关,虚假独立,辛普森悖论等问题。本文主要针对上述两个想法和相应问题提出对应的解决方法,主要研究的内容包括以下几点:(1)首先从三维列联表饱和对数线性模型出发,给出列联表可压缩性的相关定理,同时将该定理推导到高维列联表的情况,说明其结论同样适用于高维情形。该定理除了可以刻画变量间的关系外,在一定程度也解释了什么时候会发生“同质”现象,即两变量的发生比之比不会随着其他变量的取值不同而改变。(2)在已有的关于三,四维分类数据的列联表的压缩性定理基础上,我们通过借助对数线性模型和关联图的关系重点研究高维列联表的关联关系和压缩性定理。相比已有结论,我们的方法一方面可以自然推广到五维及以上的高维情形,另一方面建立更直观的关联图的可压缩性定理,以关联图的形式分析哪些变量是可压缩的,哪些是不可压缩的,给人以更直观的形式呈现。(3)在已有的三、四维列联表基于互信息的变量重要性排序的基础上,我们进一步研究基于条件互信息的变量可压缩性排序问题,研究表明,这两种排序结果是不一致的。其实除了本文提出的基于对数线性模型和关联图下的可压缩性定理,还有以其他标准来衡量一变量是否可压缩,如基于线性信息模型或信息熵下的压缩分析,但它们得出的答案可能会有差异,本文提出的可压缩性排序就像是一把衡量它们结果好坏的尺子。(4)对于不易进行数据收集的分类变量,通常得到的样本是有限的。为了获取更多有效的样本,本文提出先用Bootstrap抽样法产生多份一定量的数据集,分别模拟它们的对数线性模型得到模型的各个参数的估计向量,并进行聚类得若干份各参数估计的向量,以提供模型预测的选择。实验结果表明即使各参数与真实模型的各个参数有差异,但这若干个参数估计向量对应的模型的概率分布与真实模型的概率分布的K-L距离都较小,即概率分布很接近,并且这若干个向量中,越靠近对应参数的置信区间,它与真实的概率分布的K-L距离越小。探究分类变量间的关联关系及构建变量的模型是至关重要的,尤其对于分类数据中常见的高维列联表,或者是样本量不足的情况,既会增加分析的难度,也会使得变量间的关联关系和模型的不可信。本文就是以这种问题背景下,提出相应的压缩性定理,压缩性排序和利用Bootstrap抽样法增加样本的方法。
张长鲁[10](2015)在《基于数据挖掘的煤矿安全可视化管理研究》文中研究指明煤矿信息化历经数字矿山和感知矿山阶段的建设,当前正朝着智慧矿山迈进。经过数字矿山和感知矿山的建设,煤矿已实现了对井下人员、设备设施、环境等安全对象的全面感知,使安全管理者能够方便地获取各类安全信息;以透彻感知、深度互联和智能应用为主要特征的未来智慧矿山建设对煤矿安全管理提出新要求,它更加注重信息资源在煤矿安全管理中的作用,基于感知到的安全数据提取隐含模式、挖掘有价值的安全知识是实现智慧安全管理的基础。面向煤矿安全大数据,传统的安全管理理论显得束手无策,信息资源的加工处理能力不足成为制约煤矿安全管理水平进一步提升的瓶颈。针对这一问题,运用可视化和数据挖掘进行安全数据的可视化展示和知识发现成为未来发展的趋势。目前在理论研究与管理实践中虽然已有部分可视化尝试,然而总体上来说这些尝试存在着局部性、随意性和片面性等问题:局部性表现在部分结构化煤矿安全数据实现了展示可视化和知识可视化而大量的非结构化、半结构化数据仍无法得到有效处理,系统的安全可视化管理体系尚未形成;随意性表现在可视化方式的选择是随意的,未考虑可视化方式与信息内容匹配性;片面性表现在现有研究中仅意识到对安全信息资源进行可视化展现,尚未考虑到深层次的安全知识可视化问题。针对煤矿安全管理中存在的信息过载问题以及安全可视化管理实践中面临的问题,本文提出煤矿安全可视化管理研究课题:首先按照认识问题的逻辑思维过程构建煤矿安全可视化管理理论体系,对其内涵、作用机理和关键模型进行研究,回答安全可视化管理是什么、为什么和怎么办三个根本问题;之后对安全可视化管理的核心内容即安全知识可视化展开具体研究,构建了煤矿安全数据结构化表达模型和安全知识可视化RPCIA实现模型。研究过程充分将理论分析与实证研究相结合,以结构化表达模型为指导,对TF煤业公司2014年安全隐患记录的调研,构建了该矿结构化安全隐患数据集;以RPCIA模型为指导,基于TF煤业公司结构化安全数据集进行了安全知识可视化研究,得出了有价值的结论。论文按照“总体提出理论,具体研究实现”的思路展开,内容共分为七章,具体如下:第1章:绪论。总结了煤矿信息化建设历程,分析了不同阶段信息化建设对煤矿安全管理的作用以及智慧矿山对煤矿安全管理的新要求;对煤矿安全管理活动进行信息过程抽象,分析了当前制约煤矿安全管理水平提高的瓶颈;对国内外煤矿安全可视化相关领域研究成果进行归纳和总结,针对当前理论研究及管理实践中的问题提出了煤矿安全可视化管理研究选题,交代了论文意义及目标,给出了论文主要研究内容及安排,论述了拟采用的研究方法并给出论文技术路线。第2章:理论基础研究。从可视化管理、数据挖掘、安全管理及认知科学四个方面对煤矿安全可视化管理的理论基础进行研究。梳理了可视化管理的发展及安全可视化研究现状,总结了数据挖掘过程模型演进、主要挖掘功能及其应用,归纳了安全管理理论的演进及发展趋势;综述了认知科学理论中的认知信息加工模型、多阶段记忆及认知负荷相关研究成果。理论基础研究为后续章节安全可视化管理理论体系及安全知识可视化模型构建奠定了理论依据。第3章:煤矿安全可视化管理理论体系研究。分析了煤矿安全可视化管理的内涵、特征和主要内容,回答了安全可视化管理是什么的问题;结合认知信息加工和认知负荷理论对其作用机理进行了理论分析和实验论证,回答了安全可视化管理为什么有效的问题;构建了安全展示可视化和可视化信息系统架构模型,回答了如何实现的问题。最终形成煤矿安全可视化管理理论体系,包含内涵层、机理层、模型层、应用层和支撑层五层内容。第4章:煤矿安全数据结构化表达研究。结合知识发现典型过程,面向煤矿安全管理诉求及安全数据特征,分析了安全知识可视化实现过程;重点对实现过程中的安全数据结构化表达进行研究,以六何分析法和定性变量定量化方法为指导,提取煤矿安全问题性质、专业、致因、时空、主体等八个维度,对每个维度进行概念分层和属性划分,最终得出7w1h结构化表达模型;对tf煤业公司安全隐患进行现场调研,通过对安全隐患数据的抽样、清洗及规范化,最终构建了该矿安全问题集,为后续安全知识可视化研究奠定数据基础。第5章:煤矿安全对象内知识可视化。针对煤矿安全对象的单变量分析,采用频数统计方法对安全问题在各维度上的分布进行分析,得出安全问题的时空分布规律、主体分布规律和逻辑规律等;针对变量间交互分析,研究了煤矿安全问题八个维度交互分析的内容及现实意义,运用对应分析法和对数线性模型对变量间交互分析进行实现。对tf煤业公司安全问题集进行了实证分析,通过单变量分析得出了该矿安全问题在各维度上的可视化分布情况,通过多变量交互分析得出安全问题性质与区域、性质与时空的交互规律。第6章:煤矿安全对象间知识可视化。在安全与生产对象交互分析中,采用灰色关联分析法研究了不同性质安全问题与采煤和掘进生产环节的关联程度;在危险源对象交互分析中,通过对煤矿安全隐患排查业务分析及危险源辨识,提出了同时暴露安全问题的危险源存在内在关联性的假设,采用关联规则挖掘方法,通过对危险源频繁项集的挖掘,提取危险源易发安全问题的关联规则;本章最后对安全数据结构化表达模型、对象内知识可视化和对象间知识可视化的实现进行归纳,得出煤矿安全知识可视化rpcia模型。第7章:结论及展望。对论文的研究结论及主要创新点进行总结,并对未来煤矿安全可视化管理的研究进行展望。论文力求在煤矿安全可视化管理理论体系及安全知识可视化实现方面取得创新,主要创新点总结如下:1)在对信息加工认知心理学和认知负荷理论研究的基础上,构建了煤矿安全管理者认知信息加工模型,分析了认知过程中注意、工作记忆和长时记忆环节存在的认知资源瓶颈;结合安全可视化特征,分析了其对安全管理者认知负荷的优化作用;以理论分析为基础设计认知实验,得出了安全可视化具有显着的认知负荷优化效应,且与认知加工水平有显着交互效应的结论,从而揭示了安全可视化作用机理。2)在对煤矿安全隐患记录等非结构化或半结构化数据分析的基础上,运用六何分析法和定性变量数量化方法,提取了描述煤矿安全问题的八个维度,并对八个维度进行概念分层和属性划分,最终构建了煤矿安全数据“7W1H”结构化表达模型,实现了安全隐患数据的结构化转换。3)在对煤矿安全数据变量特征及知识可视化目标分析的基础上,构建了变量间交互的对应分析模型,挖掘了煤矿安全对象不同维度及类别之间的关联关系并以对应分析图予以表达;构建了变量间交互的对数线性模型,计算得出了安全隐患不同维度交互效应的数值大小并进行了可视化展示。4)在对煤矿安全对象间知识可视化特征及内容分析的基础上,构建了煤矿安全生产灰色关联模型,研究得出了不同性质安全问题与采煤、掘进作业的关联度大小并采用雷达图予以可视化表达;通过对煤矿安全隐患排查业务分析及危险源辨识,构建了危险源关联规则挖掘模型,得出了不同类型危险源易发安全问题的关联规则。
二、3—维列联表中对数线性模型的选择策略(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、3—维列联表中对数线性模型的选择策略(论文提纲范文)
(1)通用加工树模型假设检验的统计等价理论及其应用(论文提纲范文)
摘要 |
ABSTRACT |
1. 引言 |
2. 文献综述 |
2.1 心理测量模型与随机建模 |
2.1.1 心理测量模型 |
2.1.2 随机建模 |
2.2 认知心理测量模型 |
2.2.1 潜在认知加工建模 |
2.2.2 离散化建模:离散状态模型 |
2.3 多项式加工树模型 |
2.3.1 最简单MPT模型:单高阈限模型 |
2.3.2 MPT模型的基本概念 |
2.3.3 MPT模型的基本性质 |
2.3.4 MPT模型可识别性处理方法 |
2.3.5 MPT模型的应用领域 |
2.4 通用加工树模型 |
2.4.1 MPT模型的扩展 |
2.4.2 GPT模型的字符串语言 |
2.4.3 GPT模型的等价转化 |
2.5 通用加工树模型的统计分析 |
2.5.1 GPT模型的统计推断 |
2.5.2 GPT模型的统计封闭性 |
2.5.3 GPT模型的统计模拟 |
2.5.4 GPT模型的模型评价和选择 |
2.5.5 GPT模型的相关分析软件 |
3. 总体设计 |
3.1 问题提出 |
3.2 研究思路 |
3.3 研究意义 |
3.3.1 理论意义 |
3.3.2 实践意义 |
4. 理论研究 |
4.1 GPT模型的基本概念 |
4.1.1 GPT模型的四个要素 |
4.1.2 GPT模型形式化定义 |
4.1.3 GPT模型的可识别性 |
4.1.4 GPT模型的模型方程的唯一性及反例 |
4.1.5 GPT模型的统计等价 |
4.1.6 GPT模型的分裂变换 |
4.2 GPT模型参数约束的假设检验 |
4.2.1 GPT模型参数约束的类型 |
4.2.2 GPT模型常数约束的假设检验 |
4.2.3 GPT模型相等约束的假设检验 |
4.2.4 GPT模型乘积约束的假设检验 |
4.2.5 GPT模型次序约束的假设检验 |
4.2.6 GPT模型参数约束的总结 |
4.3 GPT模型参数约束的代表树模型 |
4.3.1 GPT模型参数约束的典型认知加工结构及代表树模型 |
4.3.2 GPT模型代表树模型的模型属性 |
4.3.3 GPT模型参数约束基于代表树模型递归嵌套规则 |
4.4 GPT模型的统计分析 |
4.4.1 GPT模型的统计封闭性 |
4.4.2 GPT模型的参数估计 |
4.4.3 GPT模型的假设检验 |
4.4.4 GPT模型的其它假设检验问题 |
4.4.5 GPT模型统计分析总结 |
4.5 GPT模型的计算机编码 |
4.5.1 GPT模型递归定义 |
4.5.2 GPT模型字符串语言编码规则 |
4.5.3 GPT模型代表树模型的字符编码 |
4.5.4 GPT模型参数约束基于代表树模型字符串编码 |
4.5.5 GPT模型字符串语言编码小结 |
4.6 理论研究的总结 |
5. 实证数据分析 |
5.1 图片优势效应的源监测 |
5.1.1 图片优势效应源监测及结果 |
5.1.2 新假设检验的重新参数化建模 |
5.1.3 新假设检验量化分析结果 |
5.1.4 讨论 |
5.2 文学作品中人物角色源监测及年龄差异 |
5.2.1 人物角色源检测及已有结果 |
5.2.2 GPT建模分析及结果 |
5.2.3 讨论 |
5.3 四则混合运算能力的认知测量 |
5.3.1 方法 |
5.3.2 结果 |
5.3.3 讨论 |
5.3.4 结论 |
5.4 GPT模型实证数据分析小结 |
6. 总讨论 |
6.1 总结和讨论 |
6.1.1 统计等价理论及其关系 |
6.1.2 基本概念的形式化界定 |
6.1.3 参数约束类型及其等价变换 |
6.1.4 参数约束等价转化的四个代表树模型 |
6.1.5 统计封闭性的等价过程 |
6.1.6 字符串编码解码算法及替换规则 |
6.1.7 实证数据检验 |
6.2 创新、不足与展望 |
6.2.1 研究创新 |
6.2.2 不足与展望 |
7. 总结论 |
参考文献 |
附录 |
攻读学位期间研究成果 |
后记 |
(2)交互作用分析与Ⅰ型错误控制中的若干问题(论文提纲范文)
摘要 |
Abstract |
常用缩写词中英文对照表 |
前言 |
第一部分 交互作用分析 |
1.1 交互作用概述 |
1.1.1 交互作用的定义 |
1.1.2 交互作用的分类 |
1.1.3 相加交互作用与相乘交互作用的关系 |
1.1.4 交互作用的研究意义 |
1.1.5 交互作用的国内外研究进展 |
1.2 交互作用分析过程 |
1.2.1 研究设计 |
1.2.2 分析模型 |
1.2.3 评价指标 |
1.2.4 程序实现 |
1.2.5 结果报告 |
1.2.6 实例分析 |
1.3 交互作用分析中的常用技术和问题 |
1.3.1 常用数据变换 |
1.3.2 多重共线性问题 |
1.3.3 常用分析技术 |
1.3.4 标准化回归系数 |
1.3.5 交互效应与非线性效应 |
1.3.6 缺失值 |
1.4 交互作用的筛选 |
1.4.1 一阶段法 |
1.4.2 多阶段法 |
1.4.3 其他 |
第二部分 Ⅰ型错误控制 |
2.1 Ⅰ型错误控制概述 |
2.1.1 一个假设检验中的基本概念 |
2.1.1.1 一个假设检验中错误控制 |
2.1.1.2 从诊断试验看Ⅰ型错误 |
2.1.2 m个假设检验中的Ⅰ型错误控制 |
2.1.2.1 FWER控制 |
2.1.2.2 FDR控制 |
2.1.2.3 FDR(或pFDR)、local FDR与q值估计 |
2.1.2.4 小结 |
2.1.3 常用公式 |
2.1.4 常用指标 |
2.1.5 π0或m0的估计与自适应方法 |
2.1.6 常用软件及其实现 |
2.2 闭包检验与分层分析 |
2.2.1 闭包原理与闭包检验 |
2.2.2 闭包检验与序贯法 |
2.2.3 闭包检验与P值合并方法 |
2.2.4 闭包检验与固定顺序检验、守门法 |
2.2.5 闭包检验与组间比较 |
2.2.6 截尾闭包检验与序贯法 |
2.2.7 截尾闭包检验与两两比较 |
2.3 相关的处理 |
2.3.1 传统方法与相关 |
2.3.2 对相关结构建模 |
2.3.3 保留数据的相关结构 |
2.2.3.1 重抽样技术 |
2.2.3.2 伪变量 |
第三部分 Model-X knockoffs框架用于高维变量选择中的Ⅰ型错误控制 |
3.1 Model-X knockoffs框架结合不同正则化方法控制FDR的模拟研究 |
3.2 Model-X knockoffs框架结合SIS控制FDR的模拟研究 |
3.3 Model-X knockoffs框架结合两阶段方法在交互作用筛选中Ⅰ型错误控制的探讨 |
总结与讨论 |
参考文献 |
附录 |
附录1 交互作用分析 |
附录1.1 logisitc回归中基于Wald检验的样本量计算推导 |
附录1.2 logisitc回归中相乘交互作用和相加交互作用的样本量计算推导 |
附录1.3 常用分析模型(binary exposure and binary confounder)基于Wald检验的样本量计算公式中V的计算 |
附录1.4 线性回归模型的样本量计算的推导 |
附录1.5 McClelland等(2017)模拟数据的分析程序与结果 |
附录1.6 线性回归中模型总的多重共线性诊断指标汇总 |
附录1.7 线性回归中单个变量多重共线性的诊断指标汇总 |
附录2 Ⅰ型错误控制 |
附录2.1 多重检验相关的专题着作列表 |
附录2.2 多重检验相关的综述(不完整收集) |
附录2.3 多重检验相关书籍的书评(不完整收集) |
附录2.4 国内多重检验相关的综述与标准(不完整收集) |
附录2.5 Model-X knockoffs框架结合正则化方法的模拟结果1线性回归,A=4 |
附录2.6 Model-X knockoffs框架结合正则化方法的模拟结果2线性回归,A=6 |
附录2.7 Model-X knockoffs框架结合正则化方法的模拟结果3 logistic回归,A=8 |
附录2.8 Model-X knockoffs框架结合正则化方法的模拟结果4 logistic回归,A=14 |
附录2.9 Model-X knockoffs框架结合SIS的模拟结果 |
附录2.10 Model-X knockoffs框架结合Lasso用于两阶段交互作用筛选方法模拟结果,强边际原则 |
附录2.11 Model-X knockoffs框架结合Lasso用于两阶段交互作用筛选方法模拟结果,弱边际原则 |
综述 高维变量选择中的Ⅰ型错误控制综述 |
致谢 |
个人简介 |
(3)人口普查净误差及其构成部分的估计方法研究(论文提纲范文)
内容摘要 |
Abstract |
第1章 导论 |
1.1 研究背景与研究意义 |
1.1.1 研究背景 |
1.1.2 研究意义 |
1.2 人口普查质量评估研究综述 |
1.2.1 人口普查净误差估计研究 |
1.2.2 人口普查净误差构成部分估计研究 |
1.3 研究思路与研究方法 |
1.3.1 研究思路 |
1.3.2 研究方法 |
1.4 研究内容与框架 |
1.4.1 研究内容 |
1.4.2 研究框架 |
1.5 创新之处 |
第2章 英国人口普查质量评估方案解读 |
2.1 人口普查One-Number-Census项目的目标与框架 |
2.1.1 英国实施ONC项目的原因 |
2.1.2 2011年英国ONC项目的基本框架和思路 |
2.2 CCS抽样调查设计解读 |
2.2.1 抽样方法 |
2.2.2 样本量确定 |
2.2.3 调查实施 |
2.3 2011年英国ONC项目的估计方法 |
2.3.1 基本思路 |
2.3.2 比估计方法 |
2.3.3 双系统估计方法 |
2.3.4 如何满足双系统估计量的“3+2”假设条件 |
2.4 “英国方案”与“美国方案”的比较 |
第3章 人口普查净误差及其构成部分的估计方法 |
3.1 人口普查净误差的估计 |
3.1.1 抽样区域内三系统估计量的构造 |
3.1.2 抽样区域内总人口比率估计量的构造 |
3.1.3 人口总数估计量的方差估计 |
3.2 普查漏报人口估计 |
3.2.1 抽样区域内普查漏报人口估计 |
3.2.2 普查漏报人口比率估计量构造 |
3.2.3 普查漏报人口估计量的方差估计 |
3.3 普查多报人口估计 |
第4章 基于2015年全国1%人口抽样调查数据的模拟研究 |
4.1 方案设计与数据说明 |
4.2 人口普查净误差及其构成部分估计方法的稳健性验证 |
4.3 人口普查净误差及其构成部分的估计 |
4.3.1 “英国方案”三系统估计量结果 |
4.3.2 “英国方案”双系统估计量结果 |
4.3.3 “美国方案”三系统估计量结果 |
4.3.4 “英国方案”与“美国方案”结果比较 |
第5章 结论与建议 |
5.1 结论 |
5.2 建议 |
参考文献 |
后记 |
(4)我国科研工作者科学数据引用行为模式研究(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 研究背景 |
1.2 研究意义 |
1.2.1 理论意义 |
1.2.2 实践意义 |
1.3 文章结构安排 |
第2章 文献回顾 |
2.1 概念界定 |
2.1.1 科研工作者 |
2.1.2 科学数据 |
2.1.3 科学数据引用行为 |
2.1.4 科学数据引用行为模式 |
2.2 科学数据引用相关研究综述 |
2.2.1 科学数据引用的理论研究 |
2.2.2 科学数据引用行为的实证调研 |
2.2.3 小结 |
第3章 研究设计 |
3.1 研究对象、研究问题与研究目标 |
3.1.1 研究对象 |
3.1.2 研究问题 |
3.1.3 研究目标 |
3.2 研究内容、研究思路与研究方法 |
3.2.1 研究内容 |
3.2.2 研究思路 |
3.2.3 研究方法 |
3.3 研究重点与难点 |
3.3.1 研究重点 |
3.3.2 研究难点 |
第4章 数据获取 |
4.1 数据来源 |
4.2 样本获取 |
4.2.1 抽样方法 |
4.2.2 抽样过程 |
4.3 数据编码 |
第5章 科研工作者科学数据引用行为模式特征 |
5.1 科学数据引用行为模式研究变量集 |
5.2 科学数据引用强度 |
5.2.1 科学数据引用量 |
5.2.2 科学数据篇均引用量 |
5.3 科学数据引用行为特征 |
5.3.1 科学数据引用标注方式 |
5.3.2 科学数据引用呈现形式 |
5.3.3 科学数据引用位置 |
5.3.4 科学数据引用标记标注位置 |
5.3.5 科学数据引用来源信息标注位置 |
5.3.6 科学数据来源标题 |
5.3.7 科学数据唯一标识符 |
5.3.8 科学数据解析地址 |
5.4 被引用科学数据特征 |
5.4.1 科学数据创建时间 |
5.4.2 科学数据创建者 |
5.4.3 科学数据引用传播者 |
5.4.4 科学数据来源国家 |
5.4.5 科学数据类型 |
第6章 科研工作者科学数据引用行为模式特征关联性 |
6.1 科学数据引用行为模式特征变量相关性检验 |
6.2 科学数据引用行为特征内在关联性 |
6.2.1 科学数据引用行为特征内在关联假设 |
6.2.2 科学数据引用行为特征内在关联分析 |
6.3 科学数据特征与引用行为特征的影响关联性 |
6.3.1 科学数据特征与引用行为特征的影响关联假设 |
6.3.2 科学数据特征对引用行为特征的影响关联分析 |
6.4 本章小结 |
第7章 不同学科领域科研工作者科学数据引用行为模式差异 |
7.1 不同学科领域科研工作者科学数据引用行为模式差异假设 |
7.2 不同期刊科学数据唯一标识符的标注特征差异分析 |
7.3 不同学科领域科研工作者对不同创建时间、创建者、传播者和内容类型科学数据的引用倾向差异分析 |
7.3.1 不同学科领域科研工作者对单项特征科学数据的引用倾向差异 |
7.3.2 不同学科领域科研工作者对交叉特征科学数据的引用倾向差异 |
7.4 不同学科领域科研工作者的科学数据引用来源信息标注位置差异分析 |
7.5 不同学科领域科研工作者的科学数据引用位置倾向差异分析 |
7.6 本章小结 |
第8章 研究总结与展望 |
8.1 研究总结 |
8.1.1 科研工作者科学数据引用行为模式特征与关联性 |
8.1.2 不同学科领域科研工作者的科学数据引用行为模式差异 |
8.2 研究启示 |
8.2.1 提高科学数据引用行为规范性 |
8.2.2 重点改善科学数据唯一标识符和解析地址的标注失范 |
8.2.3 提高科学数据的可获取性,规划科学数据引用平台 |
8.3 研究创新 |
8.4 研究不足与展望 |
参考文献 |
附录 |
附录1 卡方检验概率p值 |
附录2 卡方检验Cramer’s V系数测定值 |
致谢 |
读研期间发表论文情况 |
(5)网络社区发现算法在流动表建模中的设计与应用(论文提纲范文)
一、引言与文献综述 |
二、流动表建模中对数线性模型的交互参数设定 |
三、利用网络社区发现算法改善对数线性模型的建模效果 |
1.计算残差列联表矩阵。 |
2.矩阵谱分析。 |
3.计算模块度, 确定最优社区结构。 |
4.构造包含社区效应的对数线性模型。 |
四、我国职业阶层代际流动表建模实例 |
(一) 我国经验代际职业流动表 |
(二) 加入社区效应参数约束提高基准对数线性模型的拟合精度 |
(三) 父子表的流动模式 |
五、总结 |
(7)基于Bootstrap方法的对数线性模型构建(论文提纲范文)
0 引言 |
1 模型构建与方法 |
1.1 对数线性模型 |
1.2 分类变量的Bootstrap方法 |
1.3 K-means聚类 |
2 基于Bootstrap下对数线性模型的构建 |
2.1 评价指标 |
2.2 方法性能分析 |
3 结语 |
(8)对数线性模型的选择方法及其应用(论文提纲范文)
1 λ系数 |
2 三维列联表的对数线性模型 |
3 应用实例 |
4 总结 |
(9)高维分类数据的关联关系及可压缩性分析(论文提纲范文)
摘要 |
ABSTRACT |
1 绪论 |
1.1 研究背景及意义 |
1.1.1 研究背景 |
1.1.2 研究意义 |
1.2 研究现状 |
1.3 研究的内容及创新 |
1.4 论文结构 |
2 列联表及对数线性模型 |
2.1 列联表 |
2.1.1 二维列联表 |
2.1.2 二维列联表的概率分布 |
2.1.3 发生比之比 |
2.2 泊松分布和多项分布 |
2.3 三维列联表 |
2.3.1 条件发生比之比与边际发生比之比 |
2.3.2 边际独立与条件独立 |
2.3.3 IJK表 |
2.4 列联表的独立检验 |
2.5 列联表的对数线性模型 |
2.5.1 二维列联表的对数线性模型 |
2.5.2 对数发生比之比 |
2.5.3 三维列联表的对数线性模型 |
2.6 关联图 |
2.7 对数线性模型的构建 |
2.7.1 Akaike信息准则和BIC |
2.7.2 实例 |
3 高维分类数据的可压缩性定理及关联图分析 |
3.1 高维分类数据的可压缩性定理 |
3.1.1 列联表的三种现象 |
3.1.2 可压缩性定理 |
3.1.3 基于关联图的可压缩性定理 |
3.2 高维分类数据的变量可压缩性排序 |
3.2.1 互信息与条件互信息 |
3.2.2 准则 |
3.2.3 实例分析 |
4 Bootstrap下的对数线性模型构建 |
4.1 引入分类数据下的Bootstrap方法 |
4.1.1 分类变量的Bootstrap方法 |
4.1.2 K- means聚类 |
4.2 基于Bootstrap下对数线性模型 |
4.2.1 评价指标 |
4.2.2 方法性能分析 |
4.3 实例应用 |
5 总结与展望 |
5.1 研究总结 |
5.2 研究前景与展望 |
参考文献 |
附录 |
攻读学位期间取得的研究成果 |
致谢 |
(10)基于数据挖掘的煤矿安全可视化管理研究(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
1.1 研究背景 |
1.1.1 煤矿信息化建设历程 |
1.1.2 煤矿信息化对安全管理的作用 |
1.1.3 煤矿安全管理瓶颈分析 |
1.1.4 依托课题 |
1.2 文献综述 |
1.2.1 煤矿安全信息系统研究 |
1.2.2 煤矿安全数据挖掘研究 |
1.2.3 煤矿安全可视化研究 |
1.2.4 文献研究述评 |
1.3 研究意义及目标 |
1.3.1 论文研究意义 |
1.3.2 论文研究目标 |
1.4 研究内容及方法 |
1.4.1 研究内容及安排 |
1.4.2 研究方法及技术路线 |
1.5 本章小结 |
第二章 理论基础研究 |
2.1 可视化管理理论及研究 |
2.1.1 可视化提出及发展 |
2.1.2 可视化管理研究及应用 |
2.1.3 安全可视化研究 |
2.2 数据挖掘研究 |
2.2.1 数据挖掘过程模型研究 |
2.2.2 数据挖掘功能及对应算法 |
2.2.3 数据挖掘应用研究 |
2.3 安全管理理论及研究 |
2.3.1 安全管理理论发展演进 |
2.3.2 安全管理理论发展趋势 |
2.3.3 煤矿安全管理研究 |
2.4 认知科学理论研究 |
2.4.1 信息加工认知心理学 |
2.4.2 注意、知觉与多阶段记忆 |
2.4.3 认知负荷理论研究 |
2.5 本章小结 |
第三章 煤矿安全可视化管理理论体系 |
3.1 煤矿安全可视化管理内涵分析 |
3.1.1 煤矿安全可视化管理内涵 |
3.1.2 煤矿安全可视化特征分析 |
3.1.3 煤矿安全可视化内容分析 |
3.2 煤矿安全可视化管理机理分析 |
3.2.1 作用机理理论分析 |
3.2.2 认知实验分析 |
3.3 煤矿安全可视化管理模型构建 |
3.3.1 安全展示可视化模型 |
3.3.2 可视化系统架构模型 |
3.4 煤矿安全可视化管理理论体系 |
3.5 本章小结 |
第四章 煤矿安全数据结构化表达 |
4.1 煤矿安全知识可视化内涵分析 |
4.2 煤矿安全知识可视化实现过程 |
4.2.1 安全数据结构化表达 |
4.2.2 安全知识可视化交互方式 |
4.2.3 安全知识可视化模型实现 |
4.2.4 安全知识可视化应用 |
4.3 煤矿安全数据结构化表达模型 |
4.3.1 煤矿安全问题表现形式 |
4.3.2 煤矿安全问题数据来源 |
4.3.3 煤矿安全数据结构化表达 |
4.3.4 煤矿安全数据变量类型分析 |
4.4 煤矿安全问题集构建实例 |
4.4.1 数据来源分析 |
4.4.2 数据预处理 |
4.4.3 安全问题集构建 |
4.5 本章小结 |
第五章 煤矿安全对象内知识可视化 |
5.1 煤矿安全单变量频数分析 |
5.1.1 单变量频数统计现实意义 |
5.1.2 单变量频数统计可视化 |
5.2 煤矿安全变量间交互分析 |
5.2.1 变量间交互过程 |
5.2.2 变量间交互内容 |
5.2.3 变量独立性检验 |
5.2.4 对应分析模型 |
5.2.5 对数线性模型 |
5.3 煤矿安全对象内知识可视化实例 |
5.3.1 单变量频数分析及其可视化 |
5.3.2 煤矿安全两变量交互分析 |
5.3.3 煤矿安全多变量交互分析 |
5.4 本章小结 |
第六章 煤矿安全对象间知识可视化 |
6.1 煤矿安全对象间交互内容 |
6.1.1 对象间交互特征分析 |
6.1.2 对象间交互内容分析 |
6.2 煤矿安全与生产交互分析 |
6.2.1 变量分析及选择 |
6.2.2 实现方法选择 |
6.2.3 煤矿安全生产灰色关联模型 |
6.2.4 煤矿安全生产灰色关联分析实例 |
6.3 危险源关联规则挖掘研究 |
6.3.1 危险源关联规则挖掘问题描述 |
6.3.2 危险源关联规则挖掘模型构建 |
6.3.3 煤矿危险源关联规则挖掘实例 |
6.4 安全知识可视化RPCIA模型 |
6.5 本章小结 |
第七章 结论与展望 |
7.1 主要结论 |
7.2 主要创新点 |
7.3 研究展望 |
参考文献 |
致谢 |
作者简介 |
在学期间发表的学术论文 |
在学期间参加科研项目 |
主要获奖 |
附录A 煤矿安全知识可视化基础数据集 |
附录B 煤矿危险源关联规则挖掘数据集 |
四、3—维列联表中对数线性模型的选择策略(论文参考文献)
- [1]通用加工树模型假设检验的统计等价理论及其应用[D]. 杨磊. 华中师范大学, 2021(02)
- [2]交互作用分析与Ⅰ型错误控制中的若干问题[D]. 王慧. 山西医科大学, 2020(11)
- [3]人口普查净误差及其构成部分的估计方法研究[D]. 滑梦珂. 天津财经大学, 2020(07)
- [4]我国科研工作者科学数据引用行为模式研究[D]. 丁文姚. 西南大学, 2020(01)
- [5]网络社区发现算法在流动表建模中的设计与应用[J]. 孙旭,贾丽,邓敏薇. 统计研究, 2019(07)
- [6]高维分类数据的关联关系及可压缩性分析[J]. 徐玲丽,陈雪东. 应用数学与计算数学学报, 2018(04)
- [7]基于Bootstrap方法的对数线性模型构建[J]. 徐玲丽,陈雪东. 湖州师范学院学报, 2017(10)
- [8]对数线性模型的选择方法及其应用[J]. 戴建国. 湖南文理学院学报(自然科学版), 2017(02)
- [9]高维分类数据的关联关系及可压缩性分析[D]. 徐玲丽. 浙江师范大学, 2018(03)
- [10]基于数据挖掘的煤矿安全可视化管理研究[D]. 张长鲁. 中国矿业大学(北京), 2015(04)