b****r 发帖数: 17995 | 1 希望一次能genotyping 20-40个snp,也有STR, in del等。我知道有个技术是
autogenomics,不过那个机器贵还要一个标本一块芯片,贵。
似乎有人用multiplex pcr的办法,然后不同位点用不同长度片段和不同荧光,用测序
仪做,大家听过吗。或者还有什么别的技术吗 |
v*******e 发帖数: 11604 | |
b****r 发帖数: 17995 | 3 taqman一管只能做一个snp一个dna,最低的通量啦,没法用。要中通量! |
a********k 发帖数: 2273 | 4 你们不用luminex?还有mass array也可以。
说实话taqman最容易,我们实验室一天做几百个病人,每个也是你这么多SNP
【在 b****r 的大作中提到】 : 希望一次能genotyping 20-40个snp,也有STR, in del等。我知道有个技术是 : autogenomics,不过那个机器贵还要一个标本一块芯片,贵。 : 似乎有人用multiplex pcr的办法,然后不同位点用不同长度片段和不同荧光,用测序 : 仪做,大家听过吗。或者还有什么别的技术吗
|
b****r 发帖数: 17995 | 5 怎么做反应呢?用BioMark之类的?那不然几百个病人+几十个位点手工加不是累死
【在 a********k 的大作中提到】 : 你们不用luminex?还有mass array也可以。 : 说实话taqman最容易,我们实验室一天做几百个病人,每个也是你这么多SNP
|
T*G 发帖数: 600 | 6 老大你们那不用 Qxt platform?用bravo automation, nextgen sequencing.
【在 b****r 的大作中提到】 : 怎么做反应呢?用BioMark之类的?那不然几百个病人+几十个位点手工加不是累死
|
b****r 发帖数: 17995 | 7 我其实是在帮国内的朋友打听,希望能用比较屌丝的东西,而且批量也不大,这玩意太
杀鸡用牛刀了,taqman来搞几十个位点那也是很不秀气的一笔支出。所以我开始就打听
那种用ABI 的capillary+multiplex PCR的平台,不知道有谁用过没
你们几位请先吃包子,继续有效
【在 T*G 的大作中提到】 : 老大你们那不用 Qxt platform?用bravo automation, nextgen sequencing.
|
a********k 发帖数: 2273 | 8 哥,样品照你说的不太多,直接送测序公司呗。MassArray仪器最贵,试剂最便宜。 |
T*G 发帖数: 600 | 9 我们做mcc用阿,就是做satellite SNPs,你的probe设计够好,deletion也应该能run
ABI 看出来。
【在 b****r 的大作中提到】 : 我其实是在帮国内的朋友打听,希望能用比较屌丝的东西,而且批量也不大,这玩意太 : 杀鸡用牛刀了,taqman来搞几十个位点那也是很不秀气的一笔支出。所以我开始就打听 : 那种用ABI 的capillary+multiplex PCR的平台,不知道有谁用过没 : 你们几位请先吃包子,继续有效
|
t******k 发帖数: 5617 | 10 如果都是做PCR能不能这样:
合成PCR的引物前面加一组barcode序列,每个标本所有SNP只用一种barcode,然后把所
有sample P出来的东西全部mix以后NGS,在结果里利用barcode把不同标本分开。
【在 b****r 的大作中提到】 : 希望一次能genotyping 20-40个snp,也有STR, in del等。我知道有个技术是 : autogenomics,不过那个机器贵还要一个标本一块芯片,贵。 : 似乎有人用multiplex pcr的办法,然后不同位点用不同长度片段和不同荧光,用测序 : 仪做,大家听过吗。或者还有什么别的技术吗
|
|
|
n******7 发帖数: 12463 | 11 这不就是amplicon/targeted sequencing吗
基本策略就两类 multiplex PCR 或者probe enrichment
各有优劣了 |
o*****a 发帖数: 2335 | 12 就像楼上说的,基本思路就是那些。
前几天正好Affymetrix的人发来EurekaGenomics LDMA技术(Low Density Marker
Assay),可以给每个样品每种基因型加barcode然后混合在一起测序。现在好像被
Affymetrix收购了。国内找affymetrix应该就行。感觉就是个改良了的多重PCR,不知
道自己实现的难度有多大。
这有个简介
http://oardc.osu.edu/mcic/newsletters/1211_newsletter_images/EG
各个公司的多重PCR应该也实现了类似功能,不知道具体性能如何
【在 b****r 的大作中提到】 : 希望一次能genotyping 20-40个snp,也有STR, in del等。我知道有个技术是 : autogenomics,不过那个机器贵还要一个标本一块芯片,贵。 : 似乎有人用multiplex pcr的办法,然后不同位点用不同长度片段和不同荧光,用测序 : 仪做,大家听过吗。或者还有什么别的技术吗
|
b****r 发帖数: 17995 | 13 当然可以这么做
不过NGS 做这么一点点genotyping还是有点用牛刀吧,除非真的可以标本量很大
【在 t******k 的大作中提到】 : 如果都是做PCR能不能这样: : 合成PCR的引物前面加一组barcode序列,每个标本所有SNP只用一种barcode,然后把所 : 有sample P出来的东西全部mix以后NGS,在结果里利用barcode把不同标本分开。
|
b****r 发帖数: 17995 | 14 一个患者测个10多个序,一个月几百个患者,那不是一点点钱啊。还有个问题就是
Sanger的自动识别能力比较差,自动化程度不够
【在 a********k 的大作中提到】 : 哥,样品照你说的不太多,直接送测序公司呗。MassArray仪器最贵,试剂最便宜。
|
b****r 发帖数: 17995 | 15 看了下,步骤好多啊,必须得专门买他们这个大仪器,不知道猴年马月能收回成本。。。
【在 o*****a 的大作中提到】 : 就像楼上说的,基本思路就是那些。 : 前几天正好Affymetrix的人发来EurekaGenomics LDMA技术(Low Density Marker : Assay),可以给每个样品每种基因型加barcode然后混合在一起测序。现在好像被 : Affymetrix收购了。国内找affymetrix应该就行。感觉就是个改良了的多重PCR,不知 : 道自己实现的难度有多大。 : 这有个简介 : http://oardc.osu.edu/mcic/newsletters/1211_newsletter_images/EG : 各个公司的多重PCR应该也实现了类似功能,不知道具体性能如何
|
s******r 发帖数: 1245 | 16 如果对时间要求不高的,能一周一批做甚至一个月一批的肯定NGS最便宜,平均下来一
个病人几块钱的成本,benchtop的NGS又不是什么高大上的东西,这种通量正好
【在 b****r 的大作中提到】 : 一个患者测个10多个序,一个月几百个患者,那不是一点点钱啊。还有个问题就是 : Sanger的自动识别能力比较差,自动化程度不够
|
b****r 发帖数: 17995 | 17 不太可能做到一个标本几美元吧,一个患者做几个位点?能达到什么样的覆盖深度?
【在 s******r 的大作中提到】 : 如果对时间要求不高的,能一周一批做甚至一个月一批的肯定NGS最便宜,平均下来一 : 个病人几块钱的成本,benchtop的NGS又不是什么高大上的东西,这种通量正好
|
s******r 发帖数: 1245 | 18 一个位点几块钱
amplicon不用考虑coverage,随便一个位点都是上千上万的,跑一个run本身不贵的可
能就1-2千,library prep那步成本差异比较大看用土豪还是钓丝做法
【在 b****r 的大作中提到】 : 不太可能做到一个标本几美元吧,一个患者做几个位点?能达到什么样的覆盖深度?
|
v********g 发帖数: 25 | |
o*****a 发帖数: 2335 | 20 没看到要买专有仪器啊,就是用他们的试剂扩增建库拿去测序
。。
【在 b****r 的大作中提到】 : 看了下,步骤好多啊,必须得专门买他们这个大仪器,不知道猴年马月能收回成本。。。
|
b****r 发帖数: 17995 | 21 还是不能这么说吧,打个比方用最屌丝的PGM, 小芯片314, 一个run才30M data,如果
200个标本50个位点,要分成一万份,每个bp平均也就10个coverage,会有大量漏掉的
,根本没法用吧。
另外就是你说的library prep了,这个贵得很啊,有什么最屌丝的做法的SOP吗?
【在 s******r 的大作中提到】 : 一个位点几块钱 : amplicon不用考虑coverage,随便一个位点都是上千上万的,跑一个run本身不贵的可 : 能就1-2千,library prep那步成本差异比较大看用土豪还是钓丝做法
|
s******r 发帖数: 1245 | 22 ion torrent的机器没什么人用了,都是用的illumina,miseq一个run出10-20m的reads
,5G的data,芯片本身也就一千多块,一万个位点做一个pool理论可行但保险点的还是
要上大机器,或者拆成几份跑
amplicon的library prep说到底就是个PCR
【在 b****r 的大作中提到】 : 还是不能这么说吧,打个比方用最屌丝的PGM, 小芯片314, 一个run才30M data,如果 : 200个标本50个位点,要分成一万份,每个bp平均也就10个coverage,会有大量漏掉的 : ,根本没法用吧。 : 另外就是你说的library prep了,这个贵得很啊,有什么最屌丝的做法的SOP吗?
|