对于大师兄把叶铭叫过来,杨超雄没有什么意见,他现在满脑子都是目前测试卡bug的问题。
“你看过课题报告没?”
“还没,刚才看论文去了。”
“嗯,咱们组的课题是辅助驾驶系统中的机器视觉方案,超雄这边负责的是双目相机对环境的动态感知。”
马俊一边介绍,一边留意着叶铭的表情,见后者只是微微点头,并没有露怯后便是微微一笑。
看来老师没抓错人,这小伙起码是有底气的。
“别扯了,快赶紧来帮我瞅瞅。”杨超雄站起身来,把座位让给马俊。
马俊坐下后拖动了几下鼠标,只看了下报告后便回头一笑:“你这家伙,算法是你写的,框架和环境是你搭的,我这能看得出来个毛啊?”
杨超雄一脸的无奈:“……师兄,我是真的检查了好久,就差拿放大镜检查源码了。”
“如果是老师的话,肯定会让你拿放大镜撸一遍源码。”
“大哥,几万行代码呢。”
“那也得撸。”马俊呵呵一笑:“你算法没问题吧?”
“算法有问题是跑不起来的,哥。”杨超雄显然不愿意撸源码,更不会承认自己算法有问题,迟疑道:“要不换一个仿真引擎?我怀疑是引擎和我作对。”
“……”
……
叶铭在听着两人交谈,再加上马俊在一旁解释,明白了杨超雄的任务是什么。
在目前自动驾驶的机器视觉感知测试中,一般有三种方式,一种是基于软件工程的方法,搭建模型输入数据进行模拟测试。一种是利用虚拟仿真的方法,用仿真引擎生成三维游戏画面来构建虚拟的场景对算法进行测试。
最后一种则是直接把机器视觉感知系统放到车上,开车去现实场地测试。
这三种方法各有优劣,虽然说第三种是最贴近现实,数据可靠,但缺点很明显,就是无法满足场景的多样性。
因此绝大部分搞自动驾驶的,都是利用第二种方法来进行测试,以求得数据的相对准确和场景的多样性。
杨超雄也是用的第二种方法——他电脑的显卡是一台3090ti。
目前的问题就是,杨超雄跑测试的时候,总是过不了对做相对运动的物体的轨迹识别——说简单点就是,杨超雄的算法跑起来之后,人家丢一块石头,或者前车掉一张纸板什么的,算法判断不出来落点。
而且还不是每次都判断不出来,是偶尔。
这就有点抓狂了。
嗯……叶铭虽然不知道问题到底出在哪里。
但他知道问题怎么解决。
重写一个。
……
这是马俊突然望向叶铭:“叶铭,你听明白师兄负责的项目没?”.
叶铭微微一怔。
自己不是来打酱油的么?
还有自己的事啊?
“大概听明白了。”
“你有什么想法?”马俊笑呵呵地看着他,意味深长地道:“老师说,你在机器视觉上很在天赋。”
马俊的这句话,让一旁的杨超雄倏然一惊,猛地望向叶铭。
叶铭……其实也吃了一惊。
但他马上便摇头笑道:“没有想法,比起杨师兄的环境感知,我做的那机器视觉就是小孩子过家家。”