近日,艾倫人工智能研究所推出 AI 框架 A12-THOR3.0 版本,新增視覺對象操作框架 ManipulaTHOR,提高機器人手臂對物體的視覺識別操作能力。
ManipulaTHOR 可以使機器人在復(fù)雜環(huán)境中進行快速訓(xùn)練,比當(dāng)前在現(xiàn)實世界的訓(xùn)練方法更快、更安全,成本效益更高。
艾倫人工智能研究所(Allen Inst for Artificial Intelligence)成立于 2014 年,由微軟聯(lián)合創(chuàng)始人保羅?艾倫(Paul Allen)與他人共同創(chuàng)立,是一家非營利性研究機構(gòu),宗旨是通過高影響力的人工智能研究為人類做出貢獻。
艾倫人工智能研究所的 A12-THOR 框架是首個在 100 多個視覺豐富化、物理化的虛擬房間場景下研究機器人操作問題的測試框架。
一、高度關(guān)節(jié)化手臂,復(fù)雜場景下精確抓取
眾所周知,讓機器人實現(xiàn)精確感知、導(dǎo)航、行動有一定技術(shù)門檻,讓機器人進行物體操縱則更難。
物體操縱是機器人學(xué)的一個既定研究領(lǐng)域,具體研究包括操縱器運動、抓取和長視距規(guī)劃、視覺推理等。其中,視覺推理一直是研究人員最大的困境之一。
艾倫人工智能研究所 CEO 奧倫?埃齊奧尼(Oren Etzioni)指出,讓機器人在現(xiàn)實世界執(zhí)行系列動作是機器人技術(shù)中最大但經(jīng)常被忽視的挑戰(zhàn)之一。“讓一個機器人在廚房里導(dǎo)航,再打開冰箱拿出一罐蘇打水,是很難的。”
更新的 ManipulaTHOR 框架中有一個虛擬機器人手臂設(shè)計,這是第一個具有高度關(guān)節(jié)化的虛擬機器人手臂,配備由旋轉(zhuǎn)關(guān)節(jié)組成的三個等長關(guān)節(jié)、一套視覺和非視覺傳感器,可以同時進行導(dǎo)航和物品移動操作。
通過機器人框架的迭代和多復(fù)雜場景的構(gòu)建,A12-THOR3.0 解決了機器人在現(xiàn)實世界執(zhí)行系列動作的難題,可以將現(xiàn)實世界物體移動到虛擬房間的不同位置,實現(xiàn)對現(xiàn)實世界的可復(fù)制性。
埃齊奧尼說道:“經(jīng)過五年的努力,A12-THOR 框架可以使現(xiàn)實世界場景更容易在虛擬世界重現(xiàn),像人類在實際場景中一樣訓(xùn)練機器人感知和導(dǎo)航世界。”
二、加速指令跟蹤等研究,拓展技術(shù)極限
隨著 AI2-THOR 更新到 3.0 版本,其 AI 場景框架不斷拓展,使得研究人員能夠更高效地設(shè)計解決方案,以解決對象操作問題以及與機器人測試相關(guān)的其他傳統(tǒng)問題。
AI2-THOR 使 AI2 研究經(jīng)理羅茲貝?莫塔吉(Roozbeh Mottaghi)說:“與在實際機器人上運行訓(xùn)練相比,AI2-THOR 模擬框架速度驚人,也更安全。”
莫塔吉說道:“多年來,AI2-THOR 框架使許多困難任務(wù)得以研究,如導(dǎo)航、指令跟蹤、多代理協(xié)作、執(zhí)行家庭任務(wù)等。AI2-THOR 的更新迭代可以使得研究人員和科學(xué)家擴大當(dāng)前人工智能的研究極限。”
除了 3.0 版本外,艾倫人工智能研究所還將在今年的計算機視覺和模式識別會議(CVPR)上舉辦 RoboTHOR Challenge 2021(2021 年機器人挑戰(zhàn)賽)。挑戰(zhàn)賽包括機器人目標(biāo)導(dǎo)航、ALFRED(機器人后續(xù)指令)、房間重新排列等項目。
結(jié)語:A12-THOR 3.0 讓機器人訓(xùn)練更快更安全
在 100 多個視覺豐富化、物理化的復(fù)雜房間場景下構(gòu)建下,AI2-THOR 3.0 框架能夠讓機器人更高效的訓(xùn)練,減少實體場景下訓(xùn)練等時間成本及物品損耗。
基于該模擬框架,機器人已能在廚房等狹小復(fù)雜場景下應(yīng)對自如,相信不久的將來,這一虛擬場景也將成為現(xiàn)實。