題 目:惡劣觀測場景的魯棒任務模型交互研究及應用
主講人:梁棟 副教授/碩導 南京航天航空大學
時 間:2022年5月10日(周二)下午14:00-16:00點
騰訊會議:ID 368-802-795
主講人簡介:
梁棟 南京航天航空大學計算機科學與技術學院 副教授、碩導。2008、2011年獲蘭州大學學士及碩士學位,2015年獲日本北海道大學信息工學博士學位,2015年起在南京航空航天大學模式分析與機器智能(工信部)重點實驗室任教至今。以第一或通信作者在IEEE Transactions on Image Processing、Pattern Recognition、IEEE Transactions on Geoscience and Remote Sensing、IEEE Transactions on Neural Networks and Learning Systems及AAAI等期刊和會議上發表論文30余篇,授權和公開發明專利10余項。主持JKW某國防項目、國家自然科學基金、中國博士后基金(一等)、江蘇省自然科學基金;參與國家重點研發計劃、國家自然基金重點項目、江蘇省科技成果轉化重大創新項目各一項;承擔中國工程物理研究院、阿里達摩院、華為等課題若干。成果獲日貝瓦國際發明展金獎、中國生物特征識別大會“杰出貢獻獎”、中國“軟件杯”優秀指導教師獎、華為“智能基座”優秀教師獎。博士期間曾獲ISOT光機電國際會議唯一Best Student Paper Award及日本北海道大學年度優秀研究獎。研究方向為魯棒模式識別與智能系統。
講座介紹:
場景解譯是我國科研單位長期攻關的裝備智能化關鍵技術之一,同時也是自1985年以來美國國防部高級研究計劃局DARPA“戰略計算計劃”的核心研究內容,所涉技術可細分為成像增強、目標檢測、場景語義分割及多目標跟蹤等。在惡劣觀測場景中,成像品質差、背景復雜、弱目標占比大、目標位姿多樣等一系列可導致場景解譯系統性能退化的“病態”問題是無法回避的常態。研究惡劣觀測場景中的魯棒任務模型交互,可充分暴露現有技術缺陷并提出普適魯棒的場景解譯技術手段。本報告以遙感目標檢測、惡劣成像增強、動態場景前景分割為例,介紹課題組在魯棒任務模型交互方面的最新研究進展及應用情況。
主辦單位:科研處 計算機科學學院