欧美午夜精品久久久久久黑人-欧美午夜精品久久久久免费视-欧美午夜毛片a级在线-欧美午夜免费一级毛片-成人精品一区二区三区-成人精品一区二区三区中文字幕

深圳市儀器儀表學會 關于學會| 加入學會 | 聯系我們
郵箱
您當前的位置:首頁>行業新聞自動化儀表
行業新聞

湖南大學機器人學院周易教授團隊在神經形態視覺定位研究取得新進展

湖南大學 2025-03-26
基于擬神經形態事件的視覺里程計是視覺同步定位與建圖(SLAM)領域的一個新興技術分支。其研究目標是將仿生的擬神經形態視覺技術應用于移動機器人的狀態估計任務,以解決傳統方法在高速運動、非理想光照等極端工況下性能退化或失效的問題。作為新一代視覺傳感器,事件相機相比于傳統相機具有更高的時間分辨率和動態范圍,能夠為移動機器人在高速運動或高動態范圍光照場景下的位姿估計提供強有力的支持。然而,如何設計兼容此類傳感器特殊數據結構的高效算法,仍然是一個極具挑戰性的研究問題。
 
  針對上述問題,湖南大學周易教授團隊(NAIL實驗室)在先前的研究基礎之上進行了創新性改進,提出了基于事件相機的雙目視覺與慣性里程計系統,著重優化了3D建圖效率與位姿估計精度。通過設計新型邊緣點的采樣策略并融合前后幀與左右目的深度信息,有效提升了建圖模塊的完整性與計算效率;針對相機位姿估計中俯仰與偏航分量的退化問題,該研究通過引入IMU測量數據作為運動先驗,構建緊湊且穩健的后端優化框架,實現IMU偏置與線速度的實時估計。實驗表明,相較于現有主流算法,研究所提出的系統在大尺度室外場景下展現出更高的定位精度(圖1)和更為優秀的實時性能。
 
圖1湖南大學校園內的定位實驗結果展示。
 
  研究成果以“ESVO2: Direct Visual-Inertial Odometry with Stereo Event Cameras”為題發表在機器人領域頂級期刊IEEE Transactions on Robotics(T-RO)上。同時,該論文系機器人學院首次以學生作為第一作者發表在T-RO期刊的科研成果。湖南大學機器人學院為該工作第一完成單位,2023級博士生牛軍凱與鐘聲為共同第一作者,周易教授為通訊作者。此外,香港科技大學鄭家純機器人研究所的路修遠博士、沈劭劼教授,以及柏林工業大學的Guillermo Gallego教授也參與了該項工作。該項研究得到了國家自然科學基金等項目資助。
44 好文章,需要你的鼓勵
留言咨詢