期刊在线咨询服务, 立即咨询
数据分析与知识发现杂志

杂志介绍

数据分析与知识发现杂志是由中国科学院主管,中国科学院文献情报中心主办的一本CSSCI南大期刊。

数据分析与知识发现杂志创刊于1980,发行周期为月刊,杂志类别为计算机类。

  • 自然灾害事件微博热点话题的时空对比分析

    关键词: 时空分析  社交媒体  突发事件  话题识别  话题演化  态势感知  

    【目的】对受灾地区用户和非受灾地区用户在灾难不同时期的热点话题进行分析,揭示和比较两类用户在宏观层面和微观层面的话题演化规律。【方法】本文结合地理标签和个人信息描述对受灾地区用户和非受灾地区用户进行自动划分;提出一种基于主题词共现和社区发现的微博热点话题识别、测度和演化分析框架;利用冲积图构建热点话题演化图谱;基于态势感...

  • 影响支持向量机模型语步自动识别效果的因素研究

    关键词: 语步识别  支持向量机  结构化摘要  

    【目的】探讨在基于支持向量机(SVM)模型的科技论文摘要自动语步识别过程中,训练样本的规模、N元词(N-gram)的N取值、停用词以及词频加权方式等特征对识别效果的影响。【方法】从72万余篇科技论文结构化摘要中,抽取出总计110多万条已标注好的语步为实验数据,构建SVM模型进行语步识别实验。采用控制变量方法,基于单一变量原则,通过改变训练样本量...

  • 基于GPS轨迹数据的城市交叉路口识别

    关键词: 交叉路口自动识别  gps轨迹  geohash编码  k近邻算法  

    【目的】针对交通方式混合模式下城市居民移动产生的GPS时空轨迹数据,实现城市道路交叉路口的自动识别。【方法】将交叉路口识别转化为一个有监督的分类学习问题。利用GeoHash算法对原始轨迹和轨迹活动区域进行编码和分格;将编码轨迹与活动区域编码矩阵映射成二值化融合矩阵,构建交叉路口特征集合;最后利用带有滑动窗口的K近邻分类算法,实现城市...

  • 欢迎订阅2020年《数据分析与知识发现》(月刊)

    关键词: 情报科学  前沿动态  办刊理念  计算机科学  学术交流平台  优秀研究成果  专业期刊  数据挖掘  

    《数据分析与知识发现》杂志是由中国科学院主管、中国科学院文献情报中心主办的学术性专业期刊。刊物原名《现代图书情报技术》,2017年正式更名为《数据分析与知识发现》,致力于为计算机科学、情报科学、管理学领域的研究者提供一个重要的学术交流平台。刊物将秉承“反映前沿动态、推动学科发展、引领学术创新”的办刊理念,广泛吸纳计算机科学...

  • 基于复杂网络词节点移除的关键词抽取方法

    关键词: 关键词抽取  textrank  图模型  词语节点  子图划分  

    【目的】将词节点移除融入TextRank算法,提升中文文本关键词抽取效果。【方法】提出中文关键词抽取改进算法RemoveRank。通过引入词节点移除的方式,交替进行排序步骤与移除步骤,综合考虑词图的复杂网络结构特性,将移除队列作为词节点排序结果,实现关键词的抽取。【结果】利用南方周末网络带关键词标注数据集进行实验评估,实验结果表明,引入词节...

  • 基于用户多类型兴趣波动趋势预测分析的个性化推荐方法

    关键词: 时间序列  兴趣类型  波动分析  个性化推荐  

    【目的】构建一种基于用户多类型兴趣波动特征预测的推荐方法以提升推荐效果。【方法】针对每种类型用户评分数据加入时间衰减因子并使用神经网络对数据波动线性拟合,选择最优参数结果并对比评估方法有效性。【结果】通过5组不同的用户数据进行仿真实验,结果表明,本文方法预测结果的MAE和RMSE分别较对比方法最高降低幅度达到47.63%和44.61%。【...

  • 基于Q-LDA主题模型的网络健康社区主题挖掘研究

    关键词: 文本数据  在线健康社区  知识发现  主题挖掘  

    【目的】信息质量是主题发现的重要影响因素,通过构建Q-LDA模型进行网络健康社区主题挖掘,弥补LDA主题模型在网络信息质量方面的不足,并增强模型的主题表示能力。【方法】研究网络健康信息质量评价体系,并对网络健康信息进行质量加权,在LDA主题模型的基础上建立Q-LDA主题挖掘模型,利用实际数据对模型进行验证。【结果】Q-LDA模型的结果可解释性...

  • 基于fsQCA的竞赛式众包社区知识共享行为构型研究

    关键词: fsqca  构型  知识共享  

    【目的】通过分析众包社区的知识贡献者,获得知识贡献的不同构型,从而引导社区成员进行知识共享。【方法】采用基于模糊集的定性比较分析方法,以竞赛式众包社区中进行知识贡献的社区成员为研究对象,从社区环境、动机理论、沉没成本效应三个方面划分条件变量,将知识贡献程度设为结果变量,以获得知识贡献的构型。【结果】高程度知识贡献为:(1)有管...

  • 基于区间模糊VIKOR的监犯特征风险评估研究

    关键词: 监犯特征  风险评估  区间模糊vikor  机器学习  

    【目的】提高中国监犯风险评估准确性和面向监狱管制的风险可识别性(识别监犯是否具有暴力、自杀等潜在风险)。【方法】提出一种监犯风险评估方法。该方法总结4种监犯风险类型,应用改进的区间模糊VIKOR算法将模糊性评价转换为监犯特征风险数值,获得优化的数据集;利用SVM等多种算法分别训练评估模型,得到最终组合模型;并将最终组合模型与现有成熟...

  • 基于城市地名实体双向链接分析的路线推荐研究

    关键词: 地名实体  双向链接  模糊检索  线路推荐  数据画像  

    【目的】已有线路推荐研究较少考虑地名实体之间的次序,为此设计了基于城市地名实体双向链接分析的路线推荐方法。【方法】以特定场景下不同地名实体形成的有向加权网络为基础数据源,循环计算不同轨迹链隶属于各个地名实体对应理想集的链入和链出值,进而在通过布尔逻辑和位置限定运算符表达用户查询需求的基础之上,融合模糊检索算法,实现用户查...

  • 购买用户数据优势和劣势的最新研究

    关键词: 用户数据  数字资料  麻省理工学院  广告宣传  精准营销  在线浏览  日志  营销商  

    用户数据被出售已不再是新闻。数据经纪人通常根据在线浏览日志生成用户数字画像资料,然后将其作为预期目标受众信息出售给营销商,以进行有针对性的广告宣传。通常人们认为,分析和分类用户数据的方法和工具已经十分成熟,因此营销人员可以可靠地利用这些结果进行精准营销。但是近期发表的一篇研究表明,创建这些用户数字资料的过程并不像人们想象...

  • 基于知识超网络的领域专家识别研究

    关键词: 知识超网络  领域专家  超边排序  专家识别  

    【目的】更加科学规范地对学者影响力进行评估,从而发现领域专家。【方法】从作者、文献、领域、主题4个维度构建知识超网络模型;结合超网络的度量方法、文献计量法,运用LDA主题模型,借鉴PageRank排序的思路,提出基于知识超网络的领域专家识别方法。【结果】以图书情报领域为例,通过实验进行领域专家识别,并将结果与h指数、p指数、社会网络分析...

  • 融合语法规则的Bi-LSTM中文情感分类方法研究

    关键词: 语法规则  情感分类  

    【目的】提出一种融合语法规则的情感分类方法,提高中文文本情感分类的准确率。【方法】将中文语法规则以约束的形式同Bi-LSTM结合,通过规范句子相邻位置的输出模拟句子层次中非情感词、情感词、否定词和程度词的语言作用。【结果】相较于前沿的RNN、LSTM、Bi-LSTM模型,融合中文语法规则的Bi-LSTM模型准确率可达91.2%,在准确率方面得到较好的提...

  • 数据科学家研究失败如何成为成功之母

    关键词: 芝加哥大学  企业家精神  美国西北大学  篮球队  恐怖主义  数据科学家  研究成果  科学研究  

    奥普拉·温弗瑞被她的第一份电视工作解雇了,史蒂芬·斯皮尔伯格多次被电影学院拒绝,迈克尔·乔丹并没有成功入选他高中的大学篮球队。诸如此类的故事激发了人们从失败中学习并在另一方面取得更高成就。但是,到目前为止,很少有人去深入研究这些轶事,很少研究失败导致成功的机制。美国西北大学和芝加哥大学的数据科学家研究了科学研究、企业家精神和...

  • 社交媒体用户交互行为与股票市场的关联分析研究:基于新浪财经博客的实证

    关键词: 用户行为  社会网络  新浪财经博客  相关性分析  格兰杰因果关系检验  

    【目的】探究社交媒体用户交互行为的社会网络与股市之间的关系,检验社会网络属性对股市的预测能力。【方法】利用新浪财经博客的转载信息,设置时间快照构建多个网络图;提取网络属性并与上证指数做相关性分析;最后将具有相关性的网络属性与上证指数进行格兰杰因果关系检验。【结果】网络密度与上证指数呈现二次项关系,极值点为3400;博主节点的平...

  • 融合文本倾向性分析的微博意见领袖识别

    关键词: 文本倾向性分析  意见领袖  微博  

    【目的】融合外部特征与帖文本身的内容,引入文本倾向性分析表征网民对博主的支持度,识别网络意见领袖。【方法】构建意见领袖识别模型,在潜在意见领袖提取的基础上,引入文本倾向性分析,通过Word2Vec算法识别网络中的情感新词、提高微博评论情感倾向性分析的准确性,分别计算博主评论中正面、中立和负面三种情感倾向所占的比例,去除负面情感占比...

免责声明

若用户需要出版服务,请联系出版商,地址:北京中关村北四环西路33号,邮编:100190。