查看原文
其他

RNA-seq入门实战(一):上游数据下载、格式转化和质控清洗

生信技能树 生信技能树 2022-08-10



连续两次求贤令:曾经我给你带来了十万用户,但现在祝你倒闭,以及 生信技能树知识整理实习生招募,让我走大运结识了几位优秀小伙伴!大家开始根据我的ngs组学视频进行一系列公共数据集分析实战,其中几个小伙伴让我非常惊喜,不需要怎么沟通和指导,就默默的完成了一个实战!

他前面的分享是:

下面是他对我们b站转录组视频课程的详细笔记


本节概览:

  • 1.在文章中找到 GEO accession number, 从NCBI获取数据SRR号

  • 2.在linux中使用prefetch命令根据SRR号下载SRA文件

  • 3.使用fasterq-dump/fastq-dump命令将SRA文件转为FASTQ格式,pigz软件多线程压缩(可选)

  • 4.使用fastqcmultiqc进行测序数据的质控查看5.使用trim-galore去除低质量碱基和接头

承接上节RNA-seq入门实战(零):RNA-seq流程前的准备——Linux与R的环境创建

一、从NCBI获取数据SRR号

数据的文章来源:
Formative pluripotent stem cells show features of epiblast cells poised for gastrulation | Cell Research (nature.com)
在文章的Data availability 下找到
GEO accession number: GSE154290

进入NCBI官网搜索GSE154290,选择相应结果进入

找到Supplementary file 下的SRA Run Select选项

Common Fields下介绍了数据的基本信息,例如表中的PAIRED表示双端测序数据。此次实战选择勾选 Found 27 Items下的RNA_mESCsRNA_EpiSCs各两个数据,再选中Select下的Selected选项,下载Accession List后复制数据的SRR号



二、SRA数据下载

1.创建并进入test项目文件夹,将SRR号粘贴导入idname文件

mkdir test ;cd test cat > idname SRR12207279 SRR12207280 SRR12207283 SRR12207284 ^C

2.创建SRA数据下载的脚本文件

vim 00_prefetch.sh

主要利用了sra-tools中的 prefetch命令下载sra数据

#sh内容################################ echo -e "\n \n \n prefetch sra !!! \n \n \n " date mkdir -p ~/test/raw/sra/ cd ~/test/raw/sra/ pwd
cat ~/test/idname | while read id ; \ do ( prefetch -O ./ $id & ) done

3.后台挂起运行脚本,运行情况导入log_00日志文件

nohup bash 00_prefetch.sh >log_00 2>&1 &

查看一下系统任务运行情况和test项目下的文件结构

任务运行没问题,等待数据下载完毕,暂时去relax一下吧ヽ( ̄▽ ̄)ノ
cat log_00出现以下downloaded successfully字样时表示下载完成,再检查数据下载情况,确认下载完成没问题后就可以进行下一步文件格式转化啦

prefetch.log


三、 SRA文件转为FASTQ格式

主要利用了sra-tool中的fasterq-dump命令转化格式为fastq,之后用pigz软件多线程压缩为.gz文件节省空间(可略过),再用fastqc和multiqc进行原始数据的质控和质控汇总~

fasterq-dump/fastq-dump常用参数

同上,先创建 01_sra2fq_qc1.sh 脚本文件

vim 01_sra2fq_qc1.sh
########################################### #移动sra子文件夹下的文件并删除子文件夹 date echo -e "\n \n \n 111# move files !!! \n \n \n " cd ~/test/raw/sra/cat ~/test/idname | while read id do mv $id/* ./ rm -rf $id/ done date

echo -e "\n \n \n 111# sra>>>fq !!! \n \n \n "mkdir -p ~/test/raw/fq/cd ~/test/raw/fq/pwdls ~/test/raw/sra/*.sra |while read id doecho " PROCESS $(basename $id) "fasterq-dump -3 -e 12 -O ./ $idpigz -p 12 ~/test/raw/fq/*qdonedate

echo -e " \n \n \n 111# qc 1 !!! \n \n \n " mkdir ~/test/raw/qc1/cd ~/test/raw/qc1/pwdls ~/test/raw/fq/* | xargs fastqc -t 12 -o ./multiqc ./
echo -e " \n 111# ALL Work Done!!! \n "date

运行01_sra2fq_qc1.sh 脚本文件

nohup bash 01_sra2fq_qc1.sh >log_01 2>&1 &

等待任务完成,查看一下raw文件夹下数据

tree raw


四、质控清洗

1. 原始数据质量查看

查看上一步qc1文件夹下的multiqc_report.html质控汇总网页文件,主要关注测序质量与测序接头这两项内容,可以发现该数据质量较好,平均质量均在30以上,接头含量也很低。
具体内容分析见:
20160410 测序分析——使用 FastQC 做质控 - 知乎 (zhihu.com)

小L生信学习日记-3丨原始数据质量如何判断?-上 (qq.com)

小L生信学习日记-4丨原始数据质量如何判断?-下 - 知乎 (zhihu.com)



2. 质控清洗数据

主要使用trim-galore去除低质量碱基和接头,详尽使用方法参见lncRNA组装流程的软件介绍之trim-galore
常用参数如下:

trim-galore常用参数

vim 2_cleanfq_qc2.sh
##############################################echo -e " \n \n \n 222# Clean ! trim_galore !!! \n \n \n"datemkdir ~/test/clean/cd ~/test/clean/pwd
##########single############################################################################ls ~/test/raw/fq/*.f* | while read id #do # trim_galore -q 25 -j 4 --phred33 --length 35 --stringency 3 \# --gzip -o ~/test/clean/ $id #done###########paired############################################################################1)先把文件_1、_2的路径文件名分别存储,再合并成两列的格式,存为config######### ls ~/test/raw/fq/*_1* >1 ls ~/test/raw/fq/*_2* >2 paste 1 2 >config cat config | while read id do arr=($id) fq1=${arr[0]} fq2=${arr[1]} trim_galore -j 4 -q 25 --phred33 --length 35 --stringency 3 \ --paired --gzip -o ~/test/clean/ $fq1 $fq2 done###########################################################################################

echo -e "\n \n \n 222# qc2 检查clean清洗结果!!! \n \n \n"mkdir ~/test/clean/qc2cd ~/test/clean/qc2pwdls ~/test/clean/*f*.gz | xargs fastqc -t 12 -o ~/test/clean/qc2multiqc ./
echo -e " \n 222# ALL Work Done !!! \n "date
nohup bash 2_cleanfq_qc2.sh >log_2 2>&1 &

3. 清洗后数据质量查看

查看~/test/clean/qc2下的multiqc_report.html质控汇总网页文件,碱基质量更好一些了


到此,我们完成了RNAseq原始数据的下载、格式转化和质控清洗步骤,得到了经过质控后存放于clean文件夹下的fastq文件,接下来就可以利用这些cleaned fastq文件进行下一步的比对、计数(hisat2+feature_counts 或 salmon),最终得到我们想要的counts文件

参考资料

20160410 测序分析——使用 FastQC 做质控 - 知乎 (zhihu.com)

小L生信学习日记-3丨原始数据质量如何判断?-上 (qq.com)

小L生信学习日记-4丨原始数据质量如何判断?-下 - 知乎 (zhihu.com)

lncRNA组装流程的软件介绍之trim-galore

本实战教程基于以下生信技能树分享的视频:

【生信技能树】转录组测序数据分析_哔哩哔哩_bilibili

【生信技能树】GEO数据库挖掘_哔哩哔哩_bilibili


文末友情宣传

强烈建议你推荐给身边的博士后以及年轻生物学PI,多一点数据认知,让他们的科研上一个台阶:


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存