最近在研究转录本,现在在下载数据,想起来自己有一个博客,就暂且来这里更新一下内容。

要想对转录本进行定量,首先需要下载它的转录组数据,将别人上传的SRR文件的名字整理在wheat.txt中,引用

prefetch --option-file wheat.txt

下载后通过sratoolkits将sra数据转化成fq格式

fastq-dump --split-3 /home/SRR3134001.sra --gzip -O /home/wheat

--split-3将sra数据的双端拆分成两个文件,原来单端并不会保存成两个文件。gzip将其压缩 -O为输出文件夹

刚才用了一些fasterq-dump巨快,,

fasterq-dump --split-3 SRR1542405.sra -O /home/wheat

下载fq文件后,开始正式分析。
1、首先对转录组数据进行质控,这里运用fastp写了一个循环

for i in $(seq 1 2)
do
fastp -w 16 \
-i ../wheat${i}_1.fq.gz \
-I ../wheat${i}_2.fq.gz \
-o wheat${i}_clean_1.fq.gz \
-O wheat${i}_clean_2.fq.gz \
--html wheat${i}.html --json wheat${i}.json
done

2、在ensembl plant上下载小麦genome和gtf文件,小麦基因组也太大了,,吓到我了,,还好服务器不会说话,不然多少得骂我几句了。
在开始定量前,首先需要构建索引。

rsem-prepare-reference --gtf genome.gtf genome.fa reference_name -p 8

--gtf genome.gtf:输入基因组GTF注释文件。
genome.fa:基因组文件。
reference_name:索引名称。
-p:线程数。

构建索引后开始定量,我在rsem中直接调用star,在这里再写一个循环

for i in *_1.fq.gz
do
rsem-calculate-expression --paired-end -p 40 --star --star-gzipped-read-file ../02cleandata/${i} ../02cleandata/${i%_*}_2.fq.gz ./${i%_*}
done

--paired-end:表示输入的数据为双端测序数据。
这样就得到结果了。
genes.results和isoforms.results分别是基于基因和转录本水平的定量结果。
isoforms.results中包含了转录本ID,基因ID,转录本长度,有效长度,expected_count,TPM,FPKM和IsoPct(该转录本表达量占基因总表达量的百分比)。

更新:有一些大的基因组,star会提醒内存不够,所以我又用bowtie2试了一下
构建索引:

rsem-prepare-reference -gtf ~/home/wheat/04test/wheat.gtf --bowtie2 ~/home/wheat/04test/wheat.fa ~/home/wheat/04test/wheat

运行rsem-calculate-expression(官方文档写的很全,我下载的是双端测序数据)

rsem-calculate-expression --bowtie-path /home/miniconda3/envs/rna-seq/bin \
--fragment-length-mean 150.0 \
--fragment-length-sd 35.0 \
-p 20 \
--output-genome-bam \
--paired-end \
--calc-ci \
--ci-memory 1024 \
/home/wheat/04test/wheat1_1.fq \
/home/wheat/04test/wheat1_2.fq \
/home/wheat/04test/wheat \
wheat
posted on 2021-11-14 20:48  焦糖可丽饼  阅读(1114)  评论(0编辑  收藏  举报