3月21日,2025亞洲AI智能眼鏡大會在深圳灣科技生態園成功舉辦。此次盛會深入探討了AI智能眼鏡領域的前沿產品、創新技術及應用場景,力求實現行業核心信息的高效互通,以加速行業伙伴間的深度協作。
科大訊飛作為國內人工智能領域的“國家隊”,在本次展會上驚艷亮相,展示了其最新的AI智能眼鏡解決方案。大會上,科大訊飛AI交互研發總監王磊磊發表了題為《AI驅動交互革新,共筑‘視’聽新未來》的主題演講,詳細介紹了公司在智能眼鏡相關技術上的進展。
科大訊飛AI交互研發總監王磊磊先生發表演講
展會現場,科大訊飛的AI智能眼鏡方案演示產品憑借多麥克風陣列降噪、多模態交互等核心技術,吸引了眾多參會者駐足咨詢與體驗,親身感受其帶來的前沿科技魅力。
2025亞洲AI智能眼鏡大會科大訊飛展位現場
科大訊飛AI智能眼鏡方案通過整合多麥陣列降噪技術、極速語音交互系統、多模態交互方案及智能體中心架構,為傳統眼鏡的智能化升級提供了全面技術支持。多麥降噪確保通話清晰;極速交互實現毫秒級響應,讓指令“瞬間”執行;多模交互支持手勢、眼動等自然操作,打破傳統交互邊界;智能體中心則提供場景化功能并支持大模型接入,拓展應用無限可能。
其中,多麥陣列降噪方案依托領先的聲學技術與降噪算法,能夠精準分離人聲與環境噪音,有效解決嘈雜環境下通話質量差、語音識別不準等痛點。無論是在高速移動、復雜噪音的場景,還是日常通勤、戶外旅行,都能提供清晰穩定的通話、交互與翻譯體驗。
同時,在面對面翻譯場景,該方案還支持佩戴者聲音分離,精準鎖定說話人聲音,顯著提升翻譯準確度,確保跨語言溝通流暢無礙。
為進一步提升交互體驗,方案通過整合極速語音交互與多模交互技術,為AI眼鏡賦能全鏈路語音交互能力。極速語音交互優化識別模型,確保復雜環境下快速準確響應;多模交互融合視頻理解等技術,支持用戶通過注視對象實現針對性對話,打破傳統交互限制。這些創新技術讓AI眼鏡真正成為用戶的“第二大腦”,開啟人機交互的全新范式。
搭載云端AIUI大模型的極速超擬人交互系統
不僅如此,科大訊飛交互中樞整合海量信源,支持天氣查詢、新聞推送、日程管理等豐富功能,并通過開放API接口和模塊化設計,降低開發門檻。客戶無需開發能力即可快速接入,打造個性化智能眼鏡解決方案,拓展更多場景化應用。
此外,科大訊飛還推出了AI眼鏡智能體中心,聚焦英語陪練、智能會議、面對面翻譯等場景,持續優化功能體驗,滿足用戶多元化需求。依托開放平臺架構,智能體中心支持各類大模型靈活接入,客戶可根據需求自由定制智能體,打造專屬解決方案。這一創新進一步拓展了AI眼鏡的應用邊界,為用戶帶來更智能、更便捷的交互體驗。
此次在智能眼鏡大會上的亮相,科大訊飛不僅展現了其在智能眼鏡領域的創新應用,更是其技術實力的全面體現。通過多麥克風陣列降噪、極速交互、多模態交互、語音識別與翻譯等前沿技術,科大訊飛為智能眼鏡賦予了更強大的感知與交互能力。這種突破傳統交互模式的技術方案,不僅顯著提升了智能眼鏡在復雜場景中的實用性,也為行業展示了未來智能穿戴設備的廣闊發展前景。
本文轉載自:,不代表科技訊之立場。原文鏈接:http://news.cnmtpt.com/?Sid=11633133_M9400512496