论文荐读 2020年第1期 | 基于深度学习的多模态融合网民情感识别研究
题图源于网络
专题 · 突发事件应急情报分析
基于深度学习的多模态融合网民情感识别研究
范 涛¹ 吴 鹏¹ 曹 琪²
(1.南京理工大学经济管理学院,南京,210000;
2.中国科学院科技战略咨询研究院,北京,100190)
摘 要
现有网民情感识别研究多基于文本这一单模态,缺乏结合网民所发的文本及附带的图片来识别网民情感的研究。本文基于深度学习设计多模态融合网民情感识别模型,利用词向量模型对文本进行表示,并构建BiLSTMs模型提取文本情感特征,构建基于迁移学习的微调CNNs提取图片情感特征;将提取的文本和图片情感特征进行特征层融合后,输入至SVM中,实现多模态融合网民情感识别,同时将构建的多模态融合网民情感识别模型(DNNs-SVM)与设计的基线模型做实验效果对比,基线模型分别是word2vec+BiLSTMs、BERT+BiLSTMs、CNNs、微调CNNs和DNNs。实验结果表明,融合文本和图片特征的多模态融合情感识别结果优于单模态情感识别结果,多模态融合DNNs-SVM模型均优于所设计的基线模型。
关键词
网民情感, 多模态融合, 情感识别, 双向长短期记忆模型, 微调卷积神经网络, 网络舆情, 舆情监测
1 引言
随着社交网络的快速发展,网民倾向于在社交平台中分享身边所发生的事件,加速信息的传播与流动。在社交平台中,由于互联网的扩散性和传播性,网络舆情扩散更快、更加广泛,造成的影响难以控制。同时,处于网络舆情事件中的网民更愿意就某一事件或者话题,表达自己的主观看法和观点,以文本或者图片的形式,同时产生了大量富含情感极性的内容。而网民情感是网络舆情的重要特征之一, 如不加以正确引导,则会造成严重的公众危机[1]。因此,从社交平台中识别网络舆情中的网民情感显得尤为重要。
目前关于网民情感识别研究大都基于文本,利用基于情感词典的方法、基于规则的机器学习方法和基于深度学习的方法对网民所发的文本进行情感识别。Kim 等[2]借助于情感词典,通过计算文本中词汇的情感得分来判断文本的情感;Pang等[3]最早将机器学习算法应用至文本情感分类任务中,利用不同的机器学习模型对电影评论进行情感分析;Tai 等[4]提出改进的树形长短期记忆网络(Tree-LSTM),对电影评论进行情感分类,并取得良好的效果。尽管基于文本的情感识别取得了巨大成就,但是当网民所表达的内容包含多种含义时,仅通过文本则难以辨识其所要表达的情感。随着多媒体时代的来临,相较于以往仅以文本来表达情感的方式,网民通常会以文本配图的形式来表达自己的情感并丰富所要表达的内容[5]。文本所附带的图片也是网民情感的一种体现,将文本情感和图片情感综合考虑,可以在很大程度上解决其表达多义性的问题。
将文本情感特征和图片情感特征融合来进行情感分类属于多模态融合情感识别问题。多模态融合情感识别的核心是对于不同模态进行特征提取以及对提取后的模态特征进行融合然后分类[6]。目前,对于多模态融合情感分类问题还没有引起国内外学者的广泛关注。Rosas等[7]利用词袋模型来表示文本特征,通过 OpenEAR提取音频特征,应用 Okao Vision 提取面部表情特征,之后将三个不同模态的特征向量拼接成长向量,输入至支持向量机(Support Vector Machine,SVM)中,从而识别多模态情感;Majumder等[8]提出一种新颖的特征层融合方法,该方法以分层的方式进行,将文本特征、音频特征和面部表情特征两两融合,再对融合后的三种特征进行特征拼接,输入至深度学习模型中。从上述文献中可以看出,目前多模态融合情感识别研究中视觉模态的选择多以人脸表情为主。但考虑到真实的网络舆情事件,人脸表情出现在网民所发布的帖子中是少见的,多以带有情感极性的图片为主。
因此,面对网民情感表达方式的变化、现有的文本情感分析不足以识别网民情感以及考虑到真实的网络舆情事件情况,本文首次提出融合文本和图片,结合深度学习模型和机器学习模型来识别网络舆情事件中的网民情感。双向长短期记忆网络(Bidirectional Long Short-Term Memory, BiLSTM)作为循环卷积网络(Recurrent Neural Network, RNN)的变体,可以有效学习上下文信息,并避免因上下文间隔拉长所带来的梯度爆炸和梯度消失问题,常被学者用于文本情感分类[9]。卷积神经络(Convolutional Neural Network, CNN)具有空间上的平移、缩放和扭曲不变性等优点,在计算机视觉的多个领域大放异彩,作为应用的延伸,其常被应用至图片情感识别中[10]。本文利用 BiLSTMs[11]和基于迁移学习的微调CNNs[12]分别提取文本和图片的情感特征,对特征向量进行拼接之后输入 SVM 中完成分类。为了验证多模态融合及所提出模型的优越性,本文设计了一系列基准模型,分别是基于文本的BiLSTMs模型和BERT(Bidirectional Encoder Representations from Transformers)[13]模型、基于图片的微调CNNs模型和CNNs模型以及融合文本和图片的端到端的深度神经网络(Deep Neural Networks, DNNs)模型。
2 相关研究
识别网络舆情事件中的网民情感是指对网民在社交平台中所发表的内容进行情感分析从而进行识别。本章介绍网络舆情事件中网民情感识别研究进展、图片情感识别以及多模态融合情感识别方面的研究,并进行总结。
2.1 网民情感识别研究
网民情感作为网络舆情事件中的关键要素,对其进行识别具有重大的现实意义。鉴于当前对文本数据进行情感标注没有统一的标准,吴鹏等[14]基于心理学模型 OCC 构建了文本情感标注规则,结合深度学习中的 CNNs模型对网民情感进行识别,取得较好的效果;何 炎祥等[15]针对微博文本中表情符号多的特点,借助词向量表示技术,为表情符号构建了情感空间的特征表示矩阵,形成具有情感极性的情感词向量。从突发事件中网民真实情感出发,吴鹏等[16]提出情感词向量和BiLSTMs 相结合的模型,对网民负面情感进行识别,并分为愤怒、伤心和害怕这三种类别。对网民情感进行识别,需要大量精确标注的语料,耗时耗力,针对这一问题,周清清等[17]将迁移学习方法应用至网民情感识别中,实验结果表明,基于迁移学习的方法优于非迁移学习方法;兰月新等[18]通过构建网民情感演化模型,经过 建模和仿真对网民情感变化趋势进行了预测。
2.2 图片情感识别研究
图片情感识别是一个新兴的研究领域,在探究图片情感识别任务中,研究人员做出了不懈的努力。图片情感识别技术主要可以分为三类:基于底层视觉特征的方法,通过抽取与人类情感相关的底层视觉特征,例如颜色[19]、 纹理[20]、线条[21]等手工特征,结合相关的知识,利用分类器对图片情感进行分类;基于中层语义表示的方法即通过构建中层语义的特征来弥补底层特征同人类情感中间存在的语义鸿沟,形容词、名词对(ANPs)则是中层语义表达的一种典型方法[22];基于深度学习的方法,利用深度神经网络,构建深层次模型对图片情感进行分类。
深度学习在计算机视觉领域取得重大突破,研究人员逐渐将深度学习技术引入至图片情感分类中,并取得成果 。You等[23]基于迁移学习使用在ImageNet上预训练好的CNNs 模型,并在搜集的带有不同情感的三百多万张的弱标注图片上进行微调(fine-tune),结果表 明相较于机器学习,CNNs模型具有较大的优势。为了探索微调操作在图片情感识别中的优越性,Campos等[10]使用预训练好的AlexNet式模型,并在 DeepSent数据集中进行微调,在微调的过程中,通过释放不同的层或者增加全连接层,可以帮助模型更好地学习到图片情感特征,并提升模型情感识别性能;Chen等[24]提出基于CNNs的视觉情感概念分类模型,模型在ImageNet数据集中进行预训练并在标注过的ANPs中进行微调,实验结果优于利用手工特征进行训练的 SVM模型。
2.3 多模态融合情感识别研究
多模态融合情感识别是指将不同模态的情感特征进行融合,将融合后的特征输入至分类器中从而完成情感识别。常用的融合方式有特征层融合(早融合)和决策层融合(晚融合)。针对模态与情感之间存在的语义鸿沟, 以及不同模态之间的差异,Lin等[25]提出了一 种针对不同模态通用的情感特征学习方法,利用层级建模的方式解决情感语义鸿沟,借助深度方法学习文本和图片的低层级特征,之后利用隐含信息情感信号(表情符号)学习中层情感特征,最后进行情感识别;Williams等[26]提出了一种用于识别社交视频情感的深度学习 多模态融合框架,在输入层,对音频特征、人脸表情特征和文本特征进行拼接,并利用主成分分析方法(PCA)对拼接后的特征进行降维,之后输入至深度神经网络中,完成情感识别;Poria等[6]利用 GAVAM 提取人脸面部表情特征,使用OpenEAR提取音频特征,利用概念抽取方法提出文本特征,利用特征拼接的方式融合这三种模态的特征并入至机器学习分类器中完成情感识别。
总体来看,对于网络舆情中的网民情感识别研究,现有的研究大都基于文本,利用自然处理技术识别文本情感。但是随着多媒体时代的到来,网民的情感表达方式发生了变化,相较于以往仅以文本来表达情感,网民更偏爱用文本和图片结合的方式来表达自身情感。再者,目前关于社交平台中的多模态情感分析主要聚焦于不同模态的情感特征提取,以及不同模态之间的融合。模态的选择多以文本、人脸表情和音频为主。而在真实的网络舆情事件中,很少有网民将面部表情和文本搭配来表达情感,更多的则是使用图片和文本来表达情 感。因此,结合目前网民情感表达发生的变化,以及真实的网络舆情环境,本文首次提出结合文本情感和图片情感,利用深度学习模型和 SVM 相结合的模型来提取文本情感特征和图片情感特征,并进行特征层的融合后输入至模型中完成情感识别。
3 模型设计
本文提出一种 DNNs与 SVM 相结合的模型,融合文本和图片对网民情感进行识别,分为正面、负面和中性三种情感。深度神经网络由 BiLSTMs和基于迁移学习的微调 CNNs组成,BiLSTMs用于提取文本的情感特征,微调CNNs用于提取图片的情感特征。将提取的文本情感特征和图片情感特征进行特征层融合后输入至 SVM 中进行情感识别。其中,DNNs主要用于不同模态的特征提取,SVM 主要用于对特征层融合后的特征进行情感识别。具体的研究框架如图1所示。
图1 DNNs-SVM 多模态融合网民情感识别模型
3.1 文本情感特征提取模型
本文提出的文本情感特征提取模型如图2所示。首先在大规模语料上利用Skip-gram模型来训练词向量,之后用训练好的词向量模型来向量化文本并输入至BiLSTMs进行情感识别。
图2 基于 BiLSTMs的文本情感特征提取模型
在自然语言处理领域,通常有两种方式来表示文本,分别是one-hot表示和分布式表示。在one-hot表示中,每个词将会用一个长向量表示,容易导致向量稀疏和造成“维度灾难”。作为分布式表示的代表,词嵌入技术能够将词映射至低维空间,同时也能够将空间中语义相关的词靠得更近。Skip-gram模型[27]是词嵌入模型的一种,并被学者广为使用。因此,本文使用 Skip-gram 模型训练词向量并表示文本。在输入词给定的情况下,Skip-gram 模型能够预测上下文语义单元通过无监督学习。在图3中,给定词w(t)作为输入,其用x 维的一维向量表示。当skip_window的大小设置为n,则通过无监督学习的预测输出为w(t-n),w(t-n-1),…,w(t+n -1), w(t+n) 。当词向量的训练预料足够大,训练出的词向量将具有更强的表示性并且蕴含更多的信息。本文利用gensim包中的 Skip-gram 模型来训练词向量,其中,window 设置为5,min_count设置为3,词向量的维度设置为100维。
图3 Skip-gram 模型
随着深度学习在计算机视觉领域大获成功,越来越多的学者将深度学习技术应用至自然语言处理领域。其中最具代表性的网络即为 RNNs[28],但是当上下文间隔拉长,网络变深,RNNs便会出现梯度爆炸和梯度消失的问题。LSTMs[11]作为 RNNs的变体,能够巧妙地控制其独特的门结构,结合训练中的长期记忆和短时记忆,从而能够在某种程度上克服梯度爆炸和梯度消失的问题。LSTMs包含三个门以及细胞状态,三个门分别是遗忘门、输入门和输出门,其中遗忘门控制历史细胞状态保存信息,输入门负责处理当前序列位置的输入,根据当前的输入,更新细胞状态信息,再由输出门判断下个状态的输出结果。具体的计算公式见(1)~(6)[29]。
其中,ht-1,ht表示细胞的隐藏状态;wf、wi、wc、wo表示权重向量;bf、bi、bc、b0表示遗忘门、输入门、输出门与细胞状态的偏置矩阵;σ() 指代sigmoid激活函数;tanh表示双曲正切激活函数;☉指代向量点乘操作。
BiLSTMs[11]由前向LSTMs和反向LSTMs 组成,相较于单项的LSTMs,BiLSTMs能够更好地捕捉和考虑上下文信息。因此,本文选用BiLSTMs来提取文本情感特征。其 中BiLSTMs隐藏单元个数设置为128,采用dropout技术防止过拟合,参数设置为0.5。
3.2 图片情感特征提取模型
图片已经成为社交生活中不可缺失的一部分,能够表达文本所无法表达的情感并且能够捕捉富含情感的瞬间。因此,如何去识别图片中隐藏的情感变得愈发重要。本文利用 VGG-16[24]作为图片情感提取的基准模型。VGG-16由牛津大学于2014年提出,因为其简洁性和实用性,受到学术界和工业界的广泛欢迎。CNNs通常包含需要学习的大量参数,为了训练这些参数,也需要大量的训练集[30]。同时,从头训练一个深度卷积神经网络也需要耗费大量的时间和巨大的资源。在图片情感识别任务中,搜集一个大规模带有精确标注的数据集是比较困难的,而避免因数据规模过小带来过拟合的问题则需利用迁移学习技术。
迁移学习是在不同但相关的大规模数据集上进行表示学习,然后将获得的知识应用至实际的数据集中[31]。在迁移学习中,微调是一种非常实用的策略,将在不同且相关的大规模数据集上预训练好的权重作为网络的初始权重,之后根据特定任务修改最后一层全连接层输出,在训练的过程中,可以对网络层进行微调,冻结网络中的某几层权重或是释放网络的某几层权重进行训练。这样做可以避免因数据集过小带来过拟合的问题,同时让迁移学习后的网络可以更好地学习特定任务中的数据集特征。考虑到ImageNet数据集的图片情感大都是中性,因此,本文决定利用 Keras中使用ImageNet预训练好的 VGG-16模型作为基准模型。根据网民情感类别,本文修改原模型中最后一层全连接输出,并替换之前的全连接层,将神经元个数设置为3。修改后的模型结构如图4所示,其包括13层卷积层、5层池化层以及2层全连接层。
图4 图片情感特征提取模型
在本文新增加的全连接层中(即图4中的最后两层全连接层)的权重被随机初始化,其余的层则是使用在 ImageNet上 预训练的 VGG-16模型中的权重。在模型训练中,本文进行微调,冻结了最后一层 CNN 之前的网络层,冻结的网络不参与训练,最后一层 CNN及后续的网络层参与到模型训练中。
3.3 多模态融合情感识别模型
多模态融合情感识别的核心在于模态特征的提取、多模态特征融合以及融合后特征的分类。本文聚焦于特征层融合(早融合)。特征层融合指在单模态情感识别完成前,融合单模态模型中隐层的情感特征。本文结合已构建的单模态深度学习网络,即前面所述的 BiLSTMs模型和微调 CNNs模型,分别提取文本和图片的情感特征,并将其拼接成长向量。这种融合方法看似简单,但是其表现出强劲的性能[6]。之后,将其输入至神经元个数为3的softmax层中,本文称之为 DNNs多模态特征抽取器。对于融合后特征的情感识别亦是多模态融合情感识别的关键。如前面所述,在训练一个大型的卷积神经网络时,通常需要大规模的数据集,当数据集过小时,会出现过拟合的风险。而 SVM 是基于统计学习理论和结构风险最小化原理的,具有比较好的泛化能力并且能够解决小样本问题[32],它能够将向量从低维空间映射至高维空间,利用核函数解决分类问题[33]。本文选择scikit-learn包中的SVM 作为特征融合后的分类器。SVM 包含两个关键的参数,分别是核函数、惩罚参数C。本文采用网格搜索和五折交叉检验方法来确定最优参数。其中核函数范围选定为 ['rbf',l'inear','poly'] ,C的范围设定为[2-8,2-7,…,23] 。之后通过参数寻优的方法确定最佳参数。经过实验,确定选取linear 核函数,C 值设定为 2-4。本文利用训练好的 DNNs多模态融合特征提取器, 提取融合后的特征,维度大小为512,之后将其输入至 SVM 分类器中,完成情感识别。具体训练过程如图5所示。在DNNs 多模态融合特征提取模型的训练中,优化器采 用 Adam,学习率设置为0.001。
图5 DNNs-SVM 训练过程
4 实证研究
本文所用的编程语言为 python3.6,使用的深度学习框架为keras2.2.4,所有实验均在内存为16G,处理器为IntelE5-2609的服务器上完成。
4.1 实验数据集及预处理
因为没有公开的包含文本及图片的网络舆情事件数据集,本文从新浪博客中搜集了近两年发生的网络舆情事件数据。数据集包括近期发生的“响水化工厂爆炸” “重庆公交坠江”“台风山竹”等网络舆情事件。在搜集过程中,当网民所发的微博中包含数张图片时,选 择其中最具有情感极性的一张图片作为代表图片。在表1中展示了其中的一个样本。搜集的数据集分别包含2128组文本和图片。在精确和细致的人工标注后,数据集的情感极性被分为正面、负面和中性三类,其中数量分别是712、768和649。除此之外,作者所在的研究组从新浪博客中抓取了近几年发生的网络舆情事件数据,用于训练词向量,清洗后总计2911235条文本。
表1 网络舆情事件集示例
在实验开始之前,对数据进行了预处理。微博文本中通常包含表情符号,而表情符号富含情感极性。依据情感符号所表达的情感将表情符号转化为相应的情感词。例如,表情符号
4.2 基线模型
为了验证多模态融合以及 DNNs-SVM 的优越性,本文设计了如下的基线模型。基线模型分别为基于文本的 word2vec与 BiLSTMs相结合的模型和 BERT与 BiLSTMs相结合的模型、基于图片的微调 CNNs模型和 CNNs模型以及融合文本和图片的端到端的 DNNs模型。基线模型和 DNNs-SVM 模型采用的损失函数为cross_enropy,使用批次方式训练,批次大小设置为128。在模型训练中,采用earlyStopping技术,训练轮数设置为100,patience设置为10,检测参数是损失值,即当损失值连续10轮没有下降,训练就停止,可以有效防止过拟合[34]。本文将数据集分为训练集和测试集,比例为4∶1。在对比实验中,所用的训练集和测试集均相同。本文选用的评价指标分别为精确率(precision)、召回率(recall)和F值(F-measure)。
(1)Word2vec+BiLSTMs: 利用在已抓取的网络舆情文本上训练的词向量模型抽取文本特征, 维度为100, 作为BiLSTMs的输入。BiLSTMs由双向的LSTMs组成,隐藏单元个数均设置为128,dropout值设置为0.5,优化器采用Adam[11]。
(2)BERT+BiLSTMs: BERT模型是上下文词向量模型的一种,相较于词向量模型,BERT可以为相同但处于不同上下文环境的词分配不同的向量。本文利用谷歌发布的中文预训练模型提取文本的情感特征,维度为768,并输入至BiLSTMs模型中,BiLSTMs参数设置同上。
(3)微调 CNNs:微调 CNNs模型与DNNs-SVM 中的微调 CNNs模型结构相同,参数设置与之一致。优化器采用 SGD,momentum 设置为0.9,学习率设置为0.001[12]。
(4)CNNs: 本文参考文献[35]构造用于对比的 CNNs模型,由两层卷积层、两层池化层、一个全连接层和softmax层组成。其中在两层卷积层中,卷积核大小均为5*5,卷积核数量分别是32、64,激活函数采用 Relu。池化层采用最大池化的方法。优化器及其参数设置同微调 CNNs。
(5) DNNs:DNNs的特征提取部分与DNNs-SVM 相同,在后续融合后的特征分类过程中,DNNs将融合后的特征输入至一层全连接层中,激活函数为softmax,神经元个数设置为3。优化器及其参数设置同微调 CNNs。
4.3 实验结果分析与讨论
基线模型和本文所提出模型的实验结果如表2所示。
表2 情感识别结果,其中T代表文本,V代表图片
首先从文本情感识别结果来看,利用在大规模预料上预训练的 BERT模型并不优于在本领域大规模语料上训练的Skip-gram模型,其中在F值这一指标上,word2vec+BiLSTM 优于BERT+BiLSTMs达1.523%。这表明应用 word2vec和 BiLSTMs来抽取文本情感特征更为合适。其次,从图片情感识别结果来看,基于迁移学习的微调 CNNs具有很大优势,在精 确率、召回率和F值上, 超越CNNs 达45.553%、22.452%、39.41%,说明在小规模数据集中,在大规模相似的数据集上进行模型的预训练,可以有效帮助模型学习图片的底层特征,而微调则能让模型更好地适应特定任务数据集,从而提升模型性能和泛化能力。这表 明,在本文实验中,利用基于迁移学习的微调CNNs可以更好地学习图片情感特征。
综合文本情感识别结果和图片情感识别结果,从图6中不难看出,文本情感识别结果优于图片情感识别的结果,在精确率、召回率和F值上平均超过图片识别结果达 46.962%、 35.723%、44.069%。这表明,在网络舆情事件中,网民通过发送文本和图片的方式来表达自身的情感时,相较于图片,文本更具有情感极性,包含更多的情感信息,且更容易识别。再者,由于图片底层特征与人类情感所存在的语义鸿沟,也是图片情感识别表现低于文本情感识别的原因。
图6 文本情感识别结果与图片识别结果对比
尽管图片情感识别的结果差强人意,但是从文本和图片融合后的情感识别实验结果中可知(如图7所示),当融合图片情感特征之后,不论是在DNNs和 DNNs-SVM模型中,融合后特征的实验结果均优于单一文本情感识别结果和单一图片情感识别结果。由此看出,网民在文本中所搭配的图片确实能够帮助模型更好地理解网民在网络舆情事件中所要表达的情感。在网络舆情事件中,网民通常会以一种反讽的口吻来表达自身情感,单从文本来分析,难以判断其所要表达的情感。例如,网民在社交平台中发表“ 你这么做真是太棒了”来表达其厌恶的情感,并配了大拇指朝下的图片。仅分析文本,很难去判断,但是将图片和文本相结合,便能非常容易地去准确识别网民所要表达的情感。在多模态融合情感识别中,本文所提出的 DNNs-SVM 模型在各项评估指标上均优于端到端的 DNNs模型,其中在F值 这一指标中,前者超越后者达1.19%。这表明利用 SVM作为融合后特征的分类器是恰当的,更具优越性。综合来看,本文所提出的DNNs-SVM模型在三项评估指标中均优于所设计的基准模型,同时也表明多模态融合情感识别的优越性。
图7 网民情感识别结果综合对比
5 总结与展望
在理论上,针对网民情感表达方式的变化、当前文本情感分析不足以识别网民情感以及真实的网络舆情环境,本文引入图片这一情感要素,将图片和文本相融合来识别网民情感;在实践中,提出基于深度学习的多模态融合的网民情感识别模型,通过将 DNNs与 SVM相结合来识别网民的情感。
实验结果表明,本文所提出的模型性能均优于所设计的基线模型。可以看出,图片情感特征确实在提升网民情感识别结果中起到了作用,同时也验证了本文所提出的模型的优越性。
在未来的研究中,将进一步改进图片情感识别模型,通过扩大实验所用数据集,采用深度更深的神经网络;在文本情感特征与图片情感特征融合中,将采用不同的融合策略,探索其对模型性能的影响,从而进一步提升网络舆情中网民情感识别的效果。
作者简介
范涛,男,硕士研究生,研究方向为多模态融合情感识别。
吴鹏,男,博士,教授,博士生导师,研究方向为用户行为与人机交互、智能信息处理。
曹琪,女,工程师,研究方向为管理信息系统。
参考文献
*原文载于《信息资源管理学报》2020年第1期39-48页,欢迎个人转发,公众号转载请联系后台。
*本文引用格式:
范涛,吴鹏,曹琪.基于深度学习的多模态融合网民情感识别研究[J].信息资源管理学报,2020,10(1):39-48.
制版编辑 | 王小燕
• 论文荐读 2020年第1期 | 数据开放获取使科学惠及更广——中国开放科学与科学数据开放获取的进展与前瞻