由买买提看人间百态

boards

本页内容为未名空间相应帖子的节选和存档,一周内的贴子最多显示50字,超过一周显示500字 访问原贴
TVGame版 - [合集] 这玩意儿会不会让微软的kinect变成悲剧?
相关主题
[合集] 入了fifa之后说说fifa和实况吧nba系列
Kinect到底是微软的杀手锏还是鸡肋?Kinect似乎很难买到啊
微软干脆不拆kinect直接降到$399算了这玩意儿哪儿有卖的?
Kinect 之类的游戏当我看到它时, 我无法控制冲动
[合集] la noire里的影视明星一冲动拿了个山口山battlechest..
[合集] 我曰,到底是啥帖子这么火??这张图有人会冲动么? (转载)
普通的蓝牙headset可以用在PS3上面吗?[Demon's soul]悲剧啊。
开赛车游戏多了会不会有飚车的冲动360到底出不出薄版?
相关话题的讨论汇总
话题: report话题: kinect
进入TVGame版参与讨论
1 (共1页)
k**o
发帖数: 3006
1
☆─────────────────────────────────────☆
boycott (haha) 于 (Thu Apr 14 14:02:11 2011, 美东) 提到:
我刚刚看到了这个用来演示一种新的物体跟踪的算法的视频,它是一个博士论文里的一
部分。Zdenek Kalal是英国萨里大学的一个捷克学生。他演示的是他的神奇的精确定位
系统,这个系统几乎可以跟踪镜头里的任何物体,只要你能看见它,并把它选中。它能
做很多神情的事情。在这个视频中,他演示了通过摄像机拍摄他的手指、把他的手指选
做目标。系统于是就能精确的跟踪他的手指的动作。更令人惊奇的是,这个系统能够通
过分析物体的运动来完善跟踪算法。你能在很短的时间里教会它跟踪你的手指、面孔或
在高速公路上狂颠的轿车。有了这套系统,我们几乎真的可以实现”Minority Report
“那样的人机界面。就像微软Xbox的Kinect那样,而这个效果更好。
Kalal有12个视频来演示他的这套算法都能做什么。只要你有一个好的摄像头,把
这个软件装到计算机上、平板电脑上或手机里,它就能精确的定位跟踪你的前额上的一
个点、你的指尖、或你的眼睛。你把摄像头放到门外,它就能自动识别是你认识的人来
了,或警告你这是个陌生人。人们不用通过手就能简单的操控计算机。这项技术应用前
景广泛。
你可以从萨里大学的网站找到这个程序的代码,它是免费的。Kalal被授予了“
Technology Everywhere”奖学金作为嘉奖。
http://info.ee.surrey.ac.uk/Personal/Z.Kalal/tld.html
☆─────────────────────────────────────☆
lalaphin (orpheus) 于 (Thu Apr 14 14:07:43 2011, 美东) 提到:
MIT一直在研究这玩意儿。我早就说过了,微软做kinect最终目标并不是游戏业,而是
作为将来windows应用的探路石。
☆─────────────────────────────────────☆
kz80 (雨过天晴) 于 (Thu Apr 14 14:08:59 2011, 美东) 提到:
不错, 这学生很能下工夫. kinect也是差不多原理.
光线暗了肯定就不能用了.
☆─────────────────────────────────────☆
BlizzFlare (冰火包租婆) 于 (Thu Apr 14 14:28:45 2011, 美东) 提到:
俺好奇,这个深度是不是用宽度的变化来测量的呢?
☆─────────────────────────────────────☆
kz80 (雨过天晴) 于 (Thu Apr 14 14:34:31 2011, 美东) 提到:
那S应该不是深度, 单镜头无法算出3D深度吧

☆─────────────────────────────────────☆
pandane (大瞌睡虫) 于 (Thu Apr 14 15:03:18 2011, 美东) 提到:
haha那个youtube视频最popular的回复是:
This could make porn movies so much better.
Report
☆─────────────────────────────────────☆
yaoguaidd (妖怪) 于 (Thu Apr 14 17:03:24 2011, 美东) 提到:
kinect for windows SDK is going to be releases!
☆─────────────────────────────────────☆
zli (茶众,not Tea Party) 于 (Thu Apr 14 17:44:54 2011, 美东) 提到:
please elaborate
☆─────────────────────────────────────☆
zlike (最终幻想) 于 (Thu Apr 14 18:52:25 2011, 美东) 提到:
我觉得他这个没解决最关键的问题:what to track?
object tracking/recognition的一个难点是如何对凭空冒出来的一副图象中判断“哪
些”发生了变
化(因为所有像素都有变化),而不是对预先选好的一个小区域进行跟踪。
如果他这个没有那个选取的步骤,而是直接能识别移动的“有效”物体,那就可以和
kinnect媲美了。
☆─────────────────────────────────────☆
kz80 (雨过天晴) 于 (Thu Apr 14 19:08:57 2011, 美东) 提到:
嗯,所以我对KINECT的SDK挺感兴趣,应该很简单就能做得比他好
☆─────────────────────────────────────☆
waicha (外插是一种不精确的插值方式) 于 (Thu Apr 14 21:06:18 2011, 美东) 提到:
这哥们做的东西本身很强,算法比较牛,支持物体形态的变化,速度也应该挺快,但他
解决的跟Kinect
不是一个问题。Kinect/PrimeSense是用来检测、跟踪3维物体的,一个人进到屋子里,
Kinect相关
的算法可以首先检测出来是个人然后再跟踪他;这个算法必须要首先让用户手动选一个
起始位置,然后
才能跟踪,而且还只有二维的。这个算法倒是可以用来改进立体摄像头的三维跟踪,但
也还是没有检测
的功能。
Report
☆─────────────────────────────────────☆
Roswellian (Falcon2k5) 于 (Thu Apr 14 22:50:12 2011, 美东) 提到:
他这个军事用途比较牛吧 把目标输入
剩下的就是无人机自动搞定了
☆─────────────────────────────────────☆
sci (ence) 于 (Fri Apr 15 01:08:47 2011, 美东) 提到:
we've implemented a similar application back in 2006.
☆─────────────────────────────────────☆
alttab (阿去) 于 (Fri Apr 15 01:55:43 2011, 美东) 提到:
有一点疑问阿,看到熊猫那个片断,老人家转了个身,还能继续追踪么?基本可识别模
式都变了。
☆─────────────────────────────────────☆
hurtmeplenty (它们说,比群论优美的只有性高潮。) 于 (Fri Apr 15 01:57:53 2011, 美东) 提到:
nothing really special, many similar techniques in literature.
It is a totally different thing with Kinect.
Report
☆─────────────────────────────────────☆
Quasimodo (Wolfrank) 于 (Fri Apr 15 02:00:29 2011, 美东) 提到:
好。我师弟。我上学时也做过类似课题,十年前。
Report
☆─────────────────────────────────────☆
hurtmeplenty (它们说,比群论优美的只有性高潮。) 于 (Fri Apr 15 02:03:35 2011, 美东) 提到:
kinect最佳工作环境是全黑~主动式的。
☆─────────────────────────────────────☆
benigni (撸尔舒) 于 (Fri Apr 15 02:36:40 2011, 美东) 提到:
这玩意我也会,就是自拍个视频,后期的时候再加个黄框框就好了
Report
☆─────────────────────────────────────☆
Ocarina (陶笛) 于 (Fri Apr 15 02:59:14 2011, 美东) 提到:
跟Kinect完全解决的两回事,Kinect的贡献主要是用结构光实时重建三维
☆─────────────────────────────────────☆
psf (psf) 于 (Fri Apr 15 04:48:56 2011, 美东) 提到:
这个就是目标跟踪。不知道那个视频世实时算的还是事后算的。
Kinect和这个完全不同。正像楼上所说,kinect的关键技术是结构光三维重建。具体来
说,就是投射出一个红外的光点阵列,在不同距离的目标反射回来的光点间距不同。通
过测量这个间距(或者其它参数),可以得到目标和光源之间的距离。因为是主动红外
光探测,环境的明暗、目标本身的颜色都对探测影响不大。
☆─────────────────────────────────────☆
willywufd (WW) 于 (Fri Apr 15 09:54:54 2011, 美东) 提到:
Real-time AdaBoost?
☆─────────────────────────────────────☆
iBrick (iPhone->iBrick) 于 (Fri Apr 15 10:01:44 2011, 美东) 提到:
这跟导弹的地形匹配什么的有点像哦~
Report
☆─────────────────────────────────────☆
kz80 (雨过天晴) 于 (Fri Apr 15 10:13:23 2011, 美东) 提到:
哦原来如此, 是红外线
☆─────────────────────────────────────☆
ucol (ucol) 于 (Fri Apr 15 10:19:24 2011, 美东) 提到:
之前有做一个眼睛跟踪的小演示,发现用opencv就十分简单,但是分类器是固定的,导
致特征在一定角度的旋转后不能被识别,之前有考虑过 实时的分类器扩展训练 ,但是
基础的薄弱和动力不足没有继续下去。
有空研究一下这哥们提供的源码,学习点idea
希望有同好的朋友,多多交流。
http://www.opencv.org.cn/index.php/Cv%E6%A8%A1%E5%BC%8F%E8%AF%8
http://www.opencv.org.cn/index.php/%E7%89%B9%E5%BE%81%E6%A3%80%
http://www.opencv.org.cn/index.php/HaarTraining%E7%AE%97%E6%B3%
http://www.opencv.org.cn/index.php/%E4%BA%BA%E8%84%B8%E6%A3%80%
☆─────────────────────────────────────☆
fangzi0908 (fangzi) 于 (Fri Apr 15 10:32:52 2011, 美东) 提到:
发现老美的很多幽默都很冷。
☆─────────────────────────────────────☆
BlizzFlare (冰火包租婆) 于 (Fri Apr 15 10:39:51 2011, 美东) 提到:
那玩kinect多了岂不是很多辐射?
☆─────────────────────────────────────☆
running123 (running123) 于 (Fri Apr 15 12:21:24 2011, 美东) 提到:
moving object tracking,这是一个很老得topic了。
每年都是很多很多paper研究这个课题,都快几十年了。我也不评价啥了。
Report
☆─────────────────────────────────────☆
legolasGG (legolas) 于 (Fri Apr 15 12:29:40 2011, 美东) 提到:
搞光力学测量的人N多年前就用所谓的散斑 (speckle)来测量物体的三维变化了,他们
用激光主要测量建筑或者机械结构的微小变化。改用普通光源并应用到tracking算是新
应用,理论上没有什么新东西。
☆─────────────────────────────────────☆
wolfy (老鹰) 于 (Fri Apr 15 13:13:32 2011, 美东) 提到:
呵呵,我也注意到了熊猫这个片段。
其实转个身pattern还是一样的,只不过左右掉了个
算法里肯定考虑到这个情况了
☆─────────────────────────────────────☆
suixiang (随想) 于 (Fri Apr 15 13:28:46 2011, 美东) 提到:
hahaha, 这个回复太牛了。
☆─────────────────────────────────────☆
suixiang (随想) 于 (Fri Apr 15 13:34:18 2011, 美东) 提到:
有这个软件,加一个前置摄像头,跟踪手指头,所有显示屏都可以变成类似触摸屏了吧
,而且不用真的接触,悬空就可以了。
期待这个程序出来。
Report
☆─────────────────────────────────────☆
stanlywong (Stanley W) 于 (Fri Apr 15 13:36:49 2011, 美东) 提到:
算法对连续物体的识别下了很大功夫,有别与身体和脸通过时间进行转换,再转换成身
体。
☆─────────────────────────────────────☆
hueyhy (Cesc) 于 (Fri Apr 15 13:39:52 2011, 美东) 提到:
这个不错,不过我觉得悬空触摸屏的优势在于炫和可以随意移动伸缩啥的.
但其实手老悬着会很累.有个东西搭着好点
☆─────────────────────────────────────☆
Cutiesweetie (Cutiesweetie) 于 (Fri Apr 15 13:51:57 2011, 美东) 提到:
这样的课题
unidentified virable太多
要普及没个2,30年不现实
☆─────────────────────────────────────☆
texasac (老农) 于 (Fri Apr 15 14:06:42 2011, 美东) 提到:
个人感觉很牛啊!
仅仅只是用作触摸屏sensor太浪费了。
感觉这个可以用在像temerminator 里机器人用的目标跟踪识别,而且是个自我学习的
过程。目标转身或转换角度都可以保持被识别。
只要初始的时候对任何移动目标进行跟踪,机器人就可以获得类似人类或动物的识别能
力。
那位牛人评价一下吧。
Report
☆─────────────────────────────────────☆
Ranma (ranma 1/2) 于 (Fri Apr 15 14:09:18 2011, 美东) 提到:
可以用来做暗杀
☆─────────────────────────────────────☆
lalaphin (orpheus) 于 (Fri Apr 15 14:09:54 2011, 美东) 提到:
最主要不是做触摸屏senser
而是精英们做presentation时,终于不用激光笔和蹩脚的laptop遥控器了。
☆─────────────────────────────────────☆
wolfy (老鹰) 于 (Fri Apr 15 14:23:24 2011, 美东) 提到:
嗯,有道理,应该主要还是基于连续物体的跟踪识别。
如果选择跟踪物体花时间太长,跟踪物体已经变化太大,会不会找不到跟踪物了
☆─────────────────────────────────────☆
reload2009 (要锻炼了,连张弓都拉不开) 于 (Fri Apr 15 14:44:01 2011, 美东) 提到:
co-ask
how
☆─────────────────────────────────────☆
suixiang (随想) 于 (Fri Apr 15 14:47:14 2011, 美东) 提到:
老悬着是累,不过手指弄脏屏幕,经常要擦也挺烦人。
对了,以前有个MIT的印度小子也做了个东西,跟这个有点象,谁能找到视频?有没有
用到产品上去啊?
☆─────────────────────────────────────☆
suixiang (随想) 于 (Fri Apr 15 14:49:46 2011, 美东) 提到:
对了,我觉得这个技术做(虚拟)触摸屏最大优点是成本低很多,现在摄像头多便宜。
☆─────────────────────────────────────☆
oloolo (似人非兽) 于 (Fri Apr 15 14:51:09 2011, 美东) 提到:
军用的造就开始用了吧
☆─────────────────────────────────────☆
whmin (超超) 于 (Fri Apr 15 14:54:32 2011, 美东) 提到:
看了这么多回帖发现基本没有懂行的。我不搞vision,但稍微知道一点。
tracking最大的问题是怎么在没有feature的情况下track。你看他所有的例子,基本都是有很好的feature的。就拿他那个手指来说,故意搞了3个手指扎成一堆,这个feature那是相当好的。但你要让他直接track手指任意运动形变,那估计他十有八九做不到。因为不能保证始终都有那
膄eature给你track,到处都是ambiguitiy。
☆─────────────────────────────────────☆
whmin (超超) 于 (Fri Apr 15 15:01:05 2011, 美东) 提到:
你再想想他为什么用熊猫做例子?这不是没有原因的。熊猫身上黑一块白一块的,那是相当好的feature啊。
他怎么不用白熊做例子?
☆─────────────────────────────────────☆
ppzhang07 (ppzhang) 于 (Fri Apr 15 15:01:53 2011, 美东) 提到:
这个帖居然上首页了=。=
☆─────────────────────────────────────☆
hueyhy (Cesc) 于 (Fri Apr 15 15:02:41 2011, 美东) 提到:
看来那哥们也是个会忽悠懂营销的主啊
有乔帮主的风范
是相当好的feature啊。
☆─────────────────────────────────────☆
whmin (超超) 于 (Fri Apr 15 15:06:54 2011, 美东) 提到:
vision很多东西都这样。
在某些特殊情况下,它能work,可以解决若干问题。但放到generic case下,大部分情
况都不work。
唯一的特例是face tracking/recognition。一个原因是face的feature基本不会变,而
且feature非常很多。另一个原因是这个东西研究了非常多年了。
☆─────────────────────────────────────☆
kz80 (雨过天晴) 于 (Fri Apr 15 15:08:40 2011, 美东) 提到:
这里懂的人其实很多, 只不过一GOOGLE就有答案的东西何必废时间去打字.
用单数码CAM能做到VIDEO里这样TRACKING已经是不错了
都是有很好的feature的。就拿他那个手指来说,故意搞了3个手指扎成一堆,这个
feature那是相当好的。但你要让他直接track手指任意运动形变,那估计他十有八九做
不到。因为不能保证始终都有那么好的feature给你track,到处都是ambiguitiy。
☆─────────────────────────────────────☆
whmin (超超) 于 (Fri Apr 15 15:12:28 2011, 美东) 提到:
我不觉得。他这里的几个例子都是很well defined的problem。我甚至怀疑直接把SIFT稍微改改就能达到他这个结果。也就real time和learning算是个买点。(这点从他几篇文章的标题上也能看得出)
learning方面我不熟,就不评论了。
☆─────────────────────────────────────☆
kz80 (雨过天晴) 于 (Fri Apr 15 15:38:33 2011, 美东) 提到:
VIDEO里可以看出他的LEARNING LOGIC很多是通过对比上X幅照片所TRACKING的颜色或多
边型来实现的, 你说的那几个problem是早就有解决方法的.
用这种对比法, 通过多CAM, 多角度对比会把TRACKING精度提高很多. CAM硬件(FPS)的
提高也会有很大帮助.
所以我说, 以低价硬件做到这样已经不错了.
SIFT稍微改改就能达到他这个结果。也就real time和learning算是个买点。(这点从他
几篇文章的标题上也能看得出)
☆─────────────────────────────────────☆
whmin (超超) 于 (Fri Apr 15 15:59:34 2011, 美东) 提到:
为什么要用multiview?很多人做tracking也就是在single view上做,不见得要用multiview。
我也不理解为什么FPS有帮助。他又不是在拍高速运动的物体。这种程度的运动目前的FPS足够了,再高也没帮助。
单个camera而言,video quality还算不错的。而且他后面几个例子感觉不是他自己拍的,而是某个database里找出来。
总之我看不出他和别人比哪里就算是低价硬件。
☆─────────────────────────────────────☆
kz80 (雨过天晴) 于 (Fri Apr 15 16:12:44 2011, 美东) 提到:
多角度TRACKING有利于帮助构筑3D模式, 辨认目标更准确. 当然这个作者只能用2D, 用
他的方法理论用多CAM, 能够更快记忆多角度模块, 辨认也一样能更容易.
FPS当然有帮助, 特别是他这种需要前后对比的, FPS大小直接关系到SAMPLING RATE,
看他的VIDEO里有次快速手指移动丢失目标, 那就是SAMPLING RATE跟不上(可能和CPU运
算能力有关, 不一定是CAM), 下一帧画面附近找不到那手指了, 那么图像对照范围就要放大再搜索.
你看他下面的FPS数字变化差别还挺大的, 就说明计算时候不能保持稳定.
multiview。
的FPS足够了,再高也没帮助。
☆─────────────────────────────────────☆
majiaz (马甲z) 于 (Fri Apr 15 16:22:56 2011, 美东) 提到:
俺属于不懂行的那种,问个蠢问题,如果有两个熊猫,这玩意会混乱吗?如果公路上有
好几个camry,它还能认出来是哪辆吗?其实也就是想问到底能精确识别到什么程度。
☆─────────────────────────────────────☆
kz80 (雨过天晴) 于 (Fri Apr 15 16:30:18 2011, 美东) 提到:
一辆camry先离开画面, 然后换辆一样的camry再进入肯定会混乱的...
只是追综在画面内的而且画面稳定的话是可以分辩的
☆─────────────────────────────────────☆
whmin (超超) 于 (Fri Apr 15 16:35:34 2011, 美东) 提到:
你没明白我的观点。
我第一个观点是你评价他做的好不好,你得拿他的东西和别人做的东西作比较。你说了半天硬件多了这个可以更好、多了那个也可以更好。问题是我见过别人很多时候也不用multiview,也不上high speed camera,所以这都不说明问题。
我第二个观点是他的贡献在于real-time和learning。就tracking本身而言,他和别人的东西没有什么本质的区别。
要放大再搜索.
☆─────────────────────────────────────☆
kz80 (雨过天晴) 于 (Fri Apr 15 16:52:36 2011, 美东) 提到:
我说了我觉得以他的硬件在2D上,已经做得很好, 如果他的硬件更好用他的理论当然可
以更快更好. 我和你说的不冲突吧?
请问为什么你会觉得realtime很难实现? 在一幅画面里小范围找预先设定的图形, 对比
上几幅, 然后硬件输出或记录VIDEO也不会很难吧.
real-time和self-learning在军事制导成像方面是必需的, 当然别人有激光/红外之类
的辅助装置, 不在讨论范围.
☆─────────────────────────────────────☆
Chungkuel (Chungkuel) 于 (Fri Apr 15 17:02:35 2011, 美东) 提到:
我很好奇,如果他设定追踪人脸的话,输入是正面,摄像头拍摄侧面的话能不能检测到
我是外行
☆─────────────────────────────────────☆
whmin (超超) 于 (Fri Apr 15 17:04:51 2011, 美东) 提到:
如果你纯靠一个正面输入的话不行。
但脸这个东西太特殊了,都是二个眼睛一个鼻子一张嘴,相对位置也都是固定的。所以可以非常详细的描述这些特征。不见得可以区分不同的人,但能够把人脸都识别出来。
这也是我说他这个demo不太说明问题的原因之一。
☆─────────────────────────────────────☆
whmin (超超) 于 (Fri Apr 15 17:14:11 2011, 美东) 提到:
不冲突。
我是觉得他的demo虽然还行,但算法本身看不出比别人有啥特别好的地方,唯一买点
realtime算一个吧。scientific research蛮,好不好的标准主要看novelty,而不是
demo质量。
更何况这年头paper里面有多少实用性,都不好说。算不上猫腻,但你如果每个例子都
精挑细选,总能做出perfect的demo来。
☆─────────────────────────────────────☆
kz80 (雨过天晴) 于 (Fri Apr 15 17:21:52 2011, 美东) 提到:
所以我比较看好kinect SDK for windows, 3D测距和红外线很容易就能作出实用的APP.
☆─────────────────────────────────────☆
whmin (超超) 于 (Fri Apr 15 17:32:04 2011, 美东) 提到:
是。很多paper做做demo还行,真要拿去做产品多半就歇菜了。不像active infrared TOF还
是能解决很多问题的。
APP.
☆─────────────────────────────────────☆
majiaz (马甲z) 于 (Fri Apr 15 18:30:40 2011, 美东) 提到:
那还是很局限的啊,如果跟踪一个车,这车开进停车场,然后同一类型的车出来一个,
目标就不一样了。
☆─────────────────────────────────────☆
plutus (地摊文学爱好者) 于 (Fri Apr 15 18:33:50 2011, 美东) 提到:
zoom in to 车牌
☆─────────────────────────────────────☆
beattie (永恒的猪肉卷) 于 (Fri Apr 15 18:35:33 2011, 美东) 提到:
据说有种喷漆可以喷在车牌上造成反光,没法照相
☆─────────────────────────────────────☆
studentpower (黑猫警长) 于 (Fri Apr 15 19:08:56 2011, 美东) 提到:
http://www.youtube.com/watch?v=eNqk-eN5BV8&feature=player_embed
从他的这个视频来看,两个相同的物体,居然只能检测到一个,并且经常有一个总是检
测不到(在把另一个从镜头中挪走以后),这个在目标识别里叫做严重的漏警!简直太
差了!
Report
☆─────────────────────────────────────☆
studentpower (黑猫警长) 于 (Fri Apr 15 19:11:49 2011, 美东) 提到:
另外,这个哥们的整个code是用matlab写的,最后居然达到实时效果,太牛了!
☆─────────────────────────────────────☆
Zeratul (Elfenlied) 于 (Fri Apr 15 19:16:25 2011, 美东) 提到:
捷克?假的。
☆─────────────────────────────────────☆
minicoooper (冲刺) 于 (Fri Apr 15 19:28:31 2011, 美东) 提到:
thanks for sharing!
我是做vision的,这哥们儿的主要contribution是real-time learning, 由于实现了
real-time learning,才使tracking的模板可以动态更新。可以说是不错的开始,
不过离工业应用还有距离。
liminations:
1. 目前不能handle occlusion.
2 必须有好的sample (分辨率和feature足够)才能跟踪。
3. 二维跟踪,可以说在二维已经是不错的跟踪算法了。
4. 物体必须是rigit的,如果跟踪过程中发生形变,不知道可不可以继续learning.
如果kinect成本可以下来,还是看好kinect, 由于硬件本身的优势,以上4个问题都可
以解决。
vision业界有个说法,再好的算法,也搞不定更好的硬件;因为硬件对效果的提升是决
定性的。
Report
☆─────────────────────────────────────☆
minicoooper (冲刺) 于 (Fri Apr 15 19:31:35 2011, 美东) 提到:
演示视频好几个都是 <10fps, 不是实时,是后来做demo故意调快了。
☆─────────────────────────────────────☆
xuek622 (xuek622) 于 (Fri Apr 15 19:46:12 2011, 美东) 提到:
还是多传感器融合才是王道,纯视觉现在的技术还有很大的局限性,室内简单环境效果
还可以,拿到户外去都是扯淡
☆─────────────────────────────────────☆
whmin (超超) 于 (Fri Apr 15 20:04:33 2011, 美东) 提到:
那得上tele lens,贵啊。舍不得买
☆─────────────────────────────────────☆
zyy (无聊) 于 (Fri Apr 15 21:07:53 2011, 美东) 提到:
x, y, s
s是啥,深度?
单个相机如何测深度?
☆─────────────────────────────────────☆
JasonTsai (Jason) 于 (Sun Apr 17 19:08:06 2011, 美东) 提到:
不说他做的到底牛不牛,就看他那一脸的装B样,就很有想扁他的冲动
Report
1 (共1页)
进入TVGame版参与讨论
相关主题
360到底出不出薄版?[合集] la noire里的影视明星
heavy rain 悲剧了[合集] 我曰,到底是啥帖子这么火??
FIFA11到底值得搞不?普通的蓝牙headset可以用在PS3上面吗?
悲剧开赛车游戏多了会不会有飚车的冲动
[合集] 入了fifa之后说说fifa和实况吧nba系列
Kinect到底是微软的杀手锏还是鸡肋?Kinect似乎很难买到啊
微软干脆不拆kinect直接降到$399算了这玩意儿哪儿有卖的?
Kinect 之类的游戏当我看到它时, 我无法控制冲动
相关话题的讨论汇总
话题: report话题: kinect