蔚來Nomi支持多模態交互嗎?
蔚來Nomi支持多模態交互。自2024年4月蔚來NOMI GPT端云多模態大模型正式上線后,Nomi便具備了這一能力,尤其在搭載高通驍龍8295芯片與Banyan 2.0系統的2025款ES6上,其多模態交互體驗更為成熟。該交互涵蓋手勢、語音與視線追蹤三種方式,用戶無需依賴單一指令形式,無論是開口下達指令、做出簡單手勢,還是通過視線示意,Nomi都能快速響應并執行操作,比如調節車內溫度、切換音樂或開啟車窗等。同時,NOMI GPT大模型還賦予了Nomi開放式問答能力,結合端云融合架構與第三方API調用,實現了蔚來產品、服務與社區的全域貫通,讓交互既多元又智能。
NOMI GPT端云多模態大模型的上線時間為2024年4月12日,且針對搭載Banyan·榕智能系統的車型陸續推送升級。用戶完成功能升級后,可體驗到大模型百科、無限趣聊等全新交互內容。作為專為NOMI打造的大模型,其采用自研端云融合架構,能靈活調用第三方API,這一技術特性讓NOMI不僅能處理基礎指令,還能在開放式問答場景中展現更豐富的交互能力,比如解答用戶關于車輛功能的疑問、提供生活常識科普等,實現了從“指令執行”到“智能對話”的進階。
在硬件與系統的協同方面,2025款ES6搭載的高通驍龍8295芯片為NOMI的多模態交互提供了算力支持,配合Banyan 2.0系統,NOMI的響應速度提升了50%。這種硬件與軟件的深度適配,讓多模態交互的流暢度得到保障。當用戶通過手勢比劃“調節空調溫度”的動作,或用視線聚焦中控屏上的音樂圖標時,NOMI能快速捕捉并識別這些非語音信號,在短時間內完成指令執行,避免了傳統交互中可能出現的延遲或誤判問題。
從交互場景的覆蓋來看,NOMI的多模態交互貫穿了用戶用車的多個環節。在日常駕駛中,用戶若雙手握住方向盤,可通過視線追蹤功能讓NOMI調整導航路線;停車休息時,能通過手勢指令讓NOMI打開天窗;而在與NOMI閑聊時,開放式問答能力又能讓對話更具趣味性與實用性。這種全場景的交互覆蓋,讓NOMI從單純的語音助手轉變為用戶的智能出行伙伴,進一步提升了用車體驗的便捷性與智能化水平。
總體而言,蔚來NOMI的多模態交互能力是技術研發與用戶需求結合的成果。從大模型的上線到硬件系統的適配,再到交互場景的拓展,每一個環節都體現了對用戶體驗的關注。隨著技術的不斷迭代,NOMI的多模態交互有望在未來覆蓋更多車型,為用戶帶來更豐富的智能出行體驗。
最新問答





