【
儀表網 儀表研發】導讀:精確的農作物種植結構信息對于評估和預測糧食產量十分重要。精準農業和作物管理也需要高精度農作物種植結構信息,例如,不同作物需水量相差較大,需要根據作物種植分布情況指定科學的灌溉策略。遙感技術已發展成為農作物種植結構信息提取的主要手段。隨著遙感技術的發展,一系列高分遙感衛星已進入商業化運作,為農作物分布精細制圖提供了機遇。然而,高分遙感影像上農作物光譜變異性大,傳統遙感分類方法較難獲取高精度的農作物種植結構信息。
中國科學院東北地理與農業生態研究所地理信息系統學科組研究人員,針對高分影像農作物種植結構信息提取難題,提出一種新穎的尺度序列面向對象深度卷積網絡方法(Scale Sequence Object-based Convolutional Neural Network (SS-OCNN))。其具有兩方面獨特優勢:一是SS-OCNN作為一種面向對象分析方法(即建立在影像面向對象分割基礎之上),避免了傳統基于像元分類器的“椒鹽噪音”問題;二是SS-OCNN在使用深度學習特征提取過程中,從小到大使用多個尺度窗口卷積影像并融合多尺度信息,可有效應對農田斑塊面積變異性的難題,提高了農作物特征提取的觀測維度。
研究人員使用UAVSAR(S1)和Rapideye(S2)兩種高分遙感影像對提出的SS-OCNN有效性進行驗證。研究表明,使用多個卷積窗口SS-OCNN方法比使用單一卷積窗口OCNN方法農作物分類精度提高3%-10%,極大改善了農作物種植結構信息遙感提取精度。此外,一些傳統方法難以區分的小生物量作物(例如飼草類),其分類精度也得到顯著提高,進一步證實了多尺度觀測信息對于深度學習農作物種植結構信息提取的必要性。
相關研究成果發表在International Journal of Digital Earth上。研究工作得到吉林省預算內基本建設資金項目、武漢大學測繪遙感信息工程國家重點實驗室開發基金項目等的資助。