9月13日,亞洲最大的物料搬運和物流貿(mào)易展覽會,日本東京國際物流綜合展(Logis-Tech Tokyo)在東京盛大開幕,曠視作為全球領先的聚焦物聯(lián)網(wǎng)(IoT)場景的人工智能(AI)公司,在展會上展示了新一代托盤柔性物流解決方案——智能托盤四向車解決方案。
▲曠視亮相2022東京國際物流綜合展
此次曠視展出的智能托盤四向車系統(tǒng),是其3A智慧物流解決方案重要一環(huán),曠視希望為更多海外客戶提供柔性升級、降本增效的“有力武器”。
在曠視看來,四向車最大的特點是離散性設備、分布式控制。離散性設備跟調(diào)度、算法緊密相關,出入庫變化、調(diào)配能力、庫位優(yōu)化等均需要算法來完成。曠視的核心能力就在算法,支持四向車系統(tǒng)的大規(guī)模調(diào)度。另一方面,四向車在形態(tài)上是分布式控制,與曠視機器人平臺一脈相承?;跈C器人現(xiàn)有平臺,并結合其在AMR等研發(fā)團隊和經(jīng)驗支持,同時秉承打造工業(yè)品的產(chǎn)品理念,讓曠視在四向車解決方案領域擁有獨特優(yōu)勢。
“憑借產(chǎn)品側較為突出的國際競爭力,曠視希望通過此次亞太地區(qū)展會不斷尋找商機,拓展合作渠道,與合作伙伴一起以AI賦能創(chuàng)新自動化物流裝備,為實體企業(yè)提供具備更優(yōu)投資回報比(ROI)的解決方案,為全球客戶創(chuàng)造更大價值。
曠視是全球領先的人工智能產(chǎn)品和解決方案公司。自2011年成立起,便意識到人工智能將為世界帶來巨大變革,而深度學習是支撐人工智能革命的關鍵。以深度學習為曠視的核心競爭力,我們得以持續(xù)不斷地推動全球技術創(chuàng)新,并率先開始將前沿技術商業(yè)化。
依托自研的新一代AI生產(chǎn)力平臺Brain++,專注于算法能創(chuàng)造極大價值的領域:個人物聯(lián)網(wǎng)、城市物聯(lián)網(wǎng)和供應鏈物聯(lián)網(wǎng),向客戶提供包括算法、軟件和硬件產(chǎn)品在內(nèi)的全棧式、一體化解決方案,幫助客戶及終端用戶降本增效,并帶來極致體驗。目前,曠視擁有近3000名員工,業(yè)務遍及全球,服務數(shù)十萬開發(fā)者和超過3000家行業(yè)客戶。
作為全球領先的人工智能產(chǎn)品和解決方案公司,曠視從2017年開始就進入智慧物流領域,基于云、邊、端等平臺的深度神經(jīng)網(wǎng)絡算法創(chuàng)新,打造智能物流裝備及“智慧大腦”曠視河圖,并聚合行業(yè)合作伙伴,向工業(yè)物流及商業(yè)物流場景提供高度智慧化的行業(yè)解決方案及全生命周期服務,幫助企業(yè)降本增效、簡化管理,為工業(yè)數(shù)字化升級提供創(chuàng)新引擎。
在算法方面,曠視依托自主研發(fā)的新一代人工智能生產(chǎn)力平臺Brain++,結合物流場景的實際需求,能夠為不同的物流場景定制化輸出算法,讓新算法的生成更高效、更經(jīng)濟地服務物流場景的客戶。
在軟件方面,曠視打造了業(yè)界首個機器人物聯(lián)網(wǎng)操作系統(tǒng)——河圖操作系統(tǒng),具備生態(tài)連接、協(xié)同智能、數(shù)字孿生三大特性,使曠視得以在各類物流環(huán)境中智能協(xié)調(diào)軟件、物聯(lián)網(wǎng)設備和人,幫助客戶一站式解決規(guī)劃、仿真、實施、運營全流程。目前河圖已經(jīng)成功落地百余個項目。
在硬件方面,曠視正在不斷推出新一代物料搬運AGV、智能圓形播種機、AI+堆垛機等多款自研機器人及AI物流裝備,全面覆蓋搬運、存儲、輸送分揀場景。目前,曠視在北京、寧波、蘇州擁有3家研發(fā)制造基地,用于機器人及智能物流裝備的測試與生產(chǎn)。今年下半年,曠視還將推出多款機器人及人工智能物流裝備。
此外,曠視也在不斷聯(lián)合產(chǎn)、學、研、用等產(chǎn)業(yè)各方的力量,共同推動智慧物流的快速發(fā)展。
目前,曠視已將供應鏈物聯(lián)網(wǎng)業(yè)務擴展至10余個國家和地區(qū),累計向智能制造、零售電商、3PL、汽車、鞋服、醫(yī)藥、教育等數(shù)10個行業(yè)的數(shù)百家客戶提供端到端的智慧物流解決方案。
2025-04-19 09:52
2025-04-19 09:51
2025-04-19 09:50
2025-04-19 09:50
2025-04-19 09:49
2025-04-19 09:47
2025-04-19 09:47
2025-04-19 09:46
2025-04-19 09:44
2025-04-19 09:43