在Roomba之後,家庭機器人之所以無法取得成功有無數原因。定價、實用性、外形和映射都對失敗起了作用。即使有些或全部這些問題都得到了解決,還是存在一個問題,即當系統犯了不可避免的錯誤時會發生什麼。
這在工業層面也存在摩擦,但大公司有資源來解決問題。然而,我們不能指望消費者學習編程或聘請任何人每次出現問題時都必須幫忙。謹幸的是,這是大型語言模型(LLMs)在機器人領域的一個很好的應用案例,正如麻省理工學院的新研究所展示的那樣。
預計將在5月份國際學習表徵研討會(ICLR)上發表的一項研究聲稱在糾正錯誤過程中帶來了一些“常識”。
學院解釋說:“事實證明,機器人是優秀的模仿者。但除非工程師們也為它們編程以適應每一個可能的碰撞和推移,否則機器人可能不知道如何處理這些情況,除非重新從頭開始任務。”
傳統上,當機器人遇到問題時,它會耗盡其預先編程的選項,然後需要人工干預。這在家中等環境中尤其具有挑戰性,因為任何對現狀的改變都可能不利於機器人的功能。
研究該研究的人指出,盡管模仿學習(通過觀察學習進行任務)在家庭機器人的世界中很受歡迎,但它經常無法充分考慮到可能干擾正常運作的無數小環境變化,因此要求系統重新從頭開始。通過將示範分成較小的子集,而不是將其視為連續操作的一部分,新研究部分地解決了這個問題。
這就是大型語言模型介入的地方,消除了將眾多子操作進行標記和分配的要求。
當機器人在示範中進行的特定演示涉及訓練機器人舀取彈珠並將它們倒入空碗的過程。對於人類來說,這是一個簡單且可重複的任務,但對於機器人來說,這是各種小任務的組合。語言模型可以列出並標記這些子任務。在演示中,研究人員通過輕微的方式破壞了活動,例如使機器人偏離軌道並撞出勺子中的彈珠。系統通過自我糾正這些小任務,而不是從頭開始,來回應。
Wang補充說:“使用我們的方法,當機器人犯錯時,我們不需要要求人類進行編程或提供額外的演示來從失敗中恢復。”
這是一種幫助人們避免完全失去理智的方法。