WGCNA怎么挖掘潜在的共表达基因


这篇文章主要介绍“WGCNA怎么挖掘潜在的共表达基因”,在日常操作中,相信很多人在WGCNA怎么挖掘潜在的共表达基因问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”WGCNA怎么挖掘潜在的共表达基因”的疑惑有所帮助!接下来,请跟着小编一起来学习吧!共表达基因指的是表达量具有协同变化趋势的基因集合,通常认为这些基因参与相同的生物学过程,比如参与同一个代谢通路,正是由于功能上的协同作用,导致表达量呈现出高度相关性。在WGCNA中,对传统的相关系数进行乘方运算,用最终得到的值来表征基因间的相关性。在计算出这样的相关性统计量值之后,如何确定哪些基因是共表达的呢?WGCNA的做法是聚类分析,聚类分析属于一种非监督的机器学习算法,通过聚类树,可以观察到哪些基因在聚类树中属于同一分支,属于同一分支的基因可以归为一类。实际操作中,考虑到基因数目较多等情况,肯定需要算法来自动化的进行分类,WGCNA采用的是dynamicTreeCut这个R包。对于聚类算法而言,需要输入基因间的距离矩阵,首先就需要将基因间的邻接矩阵转换为距离矩阵,对相关系数进行乘方运算,可以计算出邻接矩阵,但是这个值本质上反映的是基因间的相似度,并不是距离。在计算距离矩阵时,WGCNA采用了TOM这种统计量,该统计量可以表征网络中节点的相似性,计算公式如下
对于两个基因ij而言,a表示两个基因邻接矩阵中对应的值,就是相关 香港云主机系数的乘方,K代表的每个基因的连接度, 公式如下
对于加权网络而言,就是该节点的边对应数值的总和,比如在网络中基因A与3个基因相连,基因A的连接度就是对应3条边的数值之和。两个基因间的l值代表的是两个基因所有边的权重乘积的总和,公式如下
公式只是帮助我们理解计算的过程,其实只需要理解TOM是表征节点的相似度就行,我们要的是距离,所以直接用1减去相似度即可,公式如下借助TOM值,将基因间的相关系数转换为了距离,然后就可以用该距离矩阵进行聚类。上述的计算方法在WGCNA中都有对应的公式,代码如下根据聚类结果和距离矩阵,就可以调用dynamicTreeCut的算法来识别modules, 代码如下通过table函数可以查看modules的结果,用法如下可以看到,识别出22个modules, 0代表那些没有归入任何modules的基因。通过plotDendroAndColors函数可视化聚类树对应的modules, 代码如下生成的图片如下整个图片分为两个部分,上方为基因的聚类树,下方为识别到的modules, 不同的modules对应不同的颜色,其中灰色对应那些没有归入任何modules的基因。通过dynamicTreeCut识别到modules之后,还会结合每个modules的基因表达量数据,来识别相关性很高的modules, 从而进行合并,其原理是对modules进行聚类,每个module下的基因表达量是一个二维矩阵,做相关性分析我们只需要一个一维向量就可以了,可以利用PCA分析提取第一主成分来表征原始的矩阵,在WGCNA中,把每个module的表达谱数据对应的一维向量称之为Module eigengene E。获取一维向量之后,就可以计算相关性,直接用1减去相关性作为距离,进行聚类,代码如下modules的聚类树示意如下每个modules的名字用对应的颜色表示,在该聚类数中,分支长度为1减去两个module间的相关系数,在合并modules时,将高相关性的合并为一类,可以指定一个阈值,比如将相关系数大于0.8的合并为一类,在该聚类树中,对应的就是height小于0.2的modules, 对应下图红色的线可以看到有8个modules都满足条件,在合并时,会将原本属于同一分支的modules直接合并为一个,从图上可以看出,合并后会减少4个modules。合并的代码如下合并之后的modules 对应的图片如下到此,关于“WGCNA怎么挖掘潜在的共表达基因”的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注开发云网站,小编会继续努力为大家带来更多实用的文章!

相关推荐: R语言的功能有哪些呢

这期内容当中小编将会给大家带来有关R语言的功能有哪些呢,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。有些业界从业人士对R语言的价值并不认可,他们认为R语言只针对统计分析。R语言的确提供了很全面的统计分析的软件包,比如CRAN…

免责声明:本站发布的图片视频文字,以转载和分享为主,文章观点不代表本站立场,本站不承担相关法律责任;如果涉及侵权请联系邮箱:360163164@qq.com举报,并提供相关证据,经查实将立刻删除涉嫌侵权内容。

Like (0)
Donate 微信扫一扫 微信扫一扫
Previous 10/03 22:04
Next 10/03 22:04

相关推荐