机器人在大规模高通量获取作物表型信息的应用上具有较大的潜力。自主导航技术是移动机器人研究中的一项重要内容,但农业场景的非结构化特征给该项技术的研究带来了巨大挑战,且在表型采集场景中机器人还面临着场景变化大、高频高重复性工作等具体问题。目前鲜有针对表型检测机器人导航方法的研究。
华中农业大学作物表型团队在Journal of Field Robotics在上发表了 题为''Autonomous navigation method based on RGB-D camera for a crop phenotyping robot''的论文。
该研究提出了一种基于RGB-D相机的作物表型机器人自主导航方法,该方法建立了田间和盆栽两种场景下多种作物图像的导航数据集,采用实时性与准确性均衡的语义分割模型对作物区域进行分割,结合该区域深度信息,在真实世界坐标系下提取导航线并获得导航参数,再根据两个单输入输出模糊控制器对机器人实施纠偏控制。除此之外,该方法根据识别区域内作物的平均高度和区域内目标的存在性判别机器人是否到达行末,最终根据行走时所测得的行距,控制机器人在末尾自动换行。
研究人员针对该方法进行了大量可行性实验。实验结果表明,机器人的导航平均行走偏差为1.33cm,最大为3.82cm。此外,行间距测量的平均误差为2.71cm,而掉头换行的成功率为100%。该方法具有较高的准确性及实用性,可以为表型机器人在户外农业环境的无人化作业提供有效支持。
文章链接:https://doi.org/10.1002/rob.22379
华中农业大学作物表型团队黄成龙教授和团队博士生杨蒙为论文共同第一作者,宋鹏副教授为本文通讯作者。本研究得到了国家重点研发计划项目(2022YFD2002304)、国家自然科学基金项目(U21A20205)、湖北省自然科学基金重点项目(2021CFA059)等项目的资助。