對醫(yī)務人員來說,將手術后的病人縫合在一起是一項至關重要而又單調(diào)的任務,通常要求他們重復相同的簡單動作數(shù)百遍。最近在英特爾與加州大學伯克利分校之間的共同努力下,不久之后,外科醫(yī)生可以將這項繁瑣的工作分擔給機器人,不過只限用于實現(xiàn)自動縫合。
圖片來源于網(wǎng)絡
由Ajay Tanwani博士領導的加州大學伯克利分校(UC Berkeley)團隊開發(fā)了一種半監(jiān)督的AI深度學習系統(tǒng),稱為Motion2Vec。該系統(tǒng)旨在觀看由實際醫(yī)生進行的公開手術視頻,在縫合時分解醫(yī)生的動作(插針、拔針和移交),然后以很高的精度進行模擬。
Tanwani告訴Engadget:“與傳統(tǒng)界面以靜態(tài)方式學習或從[模仿]軌跡學習相比,從視覺觀察中學習具有很大的吸引力,因為現(xiàn)有視頻中提供了大量信息內(nèi)容,” 對于機器人教學,一張圖片顯然勝過千言萬語。
Ken Goldberg博士是加州大學伯克利分校的實驗室負責人,也是Tanwani的團隊這項研究的顧問。他補充說:“ YouTube每分鐘獲得500個小時的新資料。這是一個令人難以置信的數(shù)據(jù)庫。任何人都可以觀看這些視頻中的任意一個并理解它,但是機器人目前無法做到-他們只是將其視為像素流。因此,這項工作的目標是嘗試弄清這些像素。那就是看視頻,對其進行分析,然后能夠?qū)⒁曨l分割成有意義的序列。”
為此,該團隊利用暹羅網(wǎng)絡來訓練AI。Tanwani解釋說,建立暹羅網(wǎng)絡是為了從無監(jiān)督或弱監(jiān)督的數(shù)據(jù)中學習距離函數(shù)。他說:“這里的想法是,您想產(chǎn)生大量重組視頻中的數(shù)據(jù),并將其壓縮為低維流形。暹羅網(wǎng)絡用于學習該流形內(nèi)的距離函數(shù)。”
基本上,這些網(wǎng)絡可以對兩個輸入之間的相似程度進行排序,這就是為什么它們經(jīng)常用于圖像識別任務,例如將某人的監(jiān)控鏡頭與駕駛執(zhí)照照片匹配。但是,在這種情況下,研究小組使用網(wǎng)絡將機械手動作的視頻輸入與人類醫(yī)生執(zhí)行相同動作的現(xiàn)有視頻進行匹配。目的是將機器人的性能提高到接近人類的水平。
由于該系統(tǒng)依賴于半監(jiān)督學習結構,因此該團隊僅需要JIGSAWS數(shù)據(jù)庫中的78個視頻即可訓練其AI以85.5%的分割準確的和平均0.94厘米的目標定位精度來執(zhí)行任務。
這些技術要進入實際手術室尚需時日,但Tanwani相信,一旦實現(xiàn),外科手術AI將像當今的半自動汽車上駕駛員輔助系統(tǒng)一樣發(fā)揮作用。他們不會取代人類外科醫(yī)生,而是通過接管低水平,重復性的任務來提高他們的表現(xiàn)。Motion2Vec系統(tǒng)不僅用于縫合。如果有適當?shù)挠柧殧?shù)據(jù),AI最終可以承擔許多職責,例如清創(chuàng)術(從傷口中挑出死肉和碎屑),但不要指望它執(zhí)行你的下一個闌尾切除術。
Goldberg說:“我們還沒有做到這一步,但是我們正在朝外科醫(yī)生的能力邁進,外科醫(yī)生將觀察系統(tǒng),指出他們想要一排縫合線的位置,傳達出他們想要六個手縫合線的能力。然后,機器人將基本上開始這樣做,外科醫(yī)生將能夠稍微放松一下,以便他們可以得到更多休息時間,并能夠?qū)W⒂谑中g中更復雜或更細微的部分。”
Tanwani補充說:“我們相信,這將有助于外科醫(yī)生有效地將時間集中在執(zhí)行更復雜的任務上,并使用技術來協(xié)助他們處理日常工作。”
2025-03-31 15:35
2025-03-31 15:33
2025-03-26 11:46
2025-03-26 11:45
2025-03-25 08:58
2025-03-24 11:41
2025-03-20 13:44
2025-03-17 12:35
2025-03-12 17:36
2025-03-12 16:56