- 2018-2019学年的第一学期,我在北理工的Robocon机器人竞赛小组做了一些工作。本文档是作为向小组内部报告只用,简要地描述我所承担各项工作的内容和进展。
- 在我着手这方面工作之前,Robocon小组没有做过计算机视觉相关的尝试。因此,我将这方面的工作多视为探索性的尝试。 以下将逐个描述各个试验性模块的功能和相应的效果。
-
应用于球上的目标检测器最初是作为应对规则中的一处模糊的后备方案而被提出的。在规则书中指出自动机器人与手动机器人之间不能通信,而“通信”的定义范围不甚清楚。 我们尚不清楚自动机器人是否需要完全依靠自身判断发射的球是否成功击中目标。
-
在许多人的帮助下,我尝试使用OpenCV的级联分类器功能训练了识别静态球的目标检测器。但是经过实际测试,在检测飞行过程中的球时,效果不佳。 其原因主要是球飞行速度快,在相机中难以留下清晰的影像。
-
机器人的姿态估计主要时用于在发射位置矫正机器人的朝向。
-
由于目标杆具有显著的特征可以用作先验,我想使用基于霍夫变换的线段检测器完成对目标杆的检测,然后根据目标杆的检测结果矫正机器人的朝向。
-
线段检测器主要基于颜色滤波和概率霍夫变换,具有较高的鲁棒性。
- 2D-2D视觉里程计
- Kinect2相机测试,深度数据获取和转换
- RealSense相机简单测试
- Intel Movidius神经计算棒硬件测试,基于深度学习的物体检测部署
- 使用ROS平台编写机器人的上位机控制代码。以下描述已经完成的各个模块以及未来需要完成的模块。