北京,2023年4月20日/PRNewswire/––全球領先的全息增強現實(AR)技術提供商WiMi全息雲股份有限公司(NASDAQ:WiMi)(“WiMi”或“公司”)今天宣布開發一種基于XR技術的人機交互方法和系統,該方法和系統可增強用戶體驗,并能在不同位置改變視角。視覺交互技術的融合促進了在虛拟世界和現實世界之間無縫過渡的沉浸式體驗。
基于XR的HCI方法和系統通過收集用戶的位置和觀察視角來獲取用戶的第一人稱視角圖像、第二視角圖像以及圖像之間的配置方法和融合模式。用戶觀察視點包括第一人稱視角和第三人稱視角。該系統基于用戶的觀察視點和位置構建多視點融合圖像,以基于配置方法和融合模式為用戶提供不同的視點圖像。視點圖像包括第一人稱視點圖像和第二視點圖像。在捕捉用戶觀察視角時,系統基于用戶的位置捕捉用戶命令,并獲取交互任務。用戶命令包括語音命令和動作命令。在獲取視點圖像的過程中,系統基于交互式任務的任務類型來獲取視點圖像。任務類型指示用戶對視點圖像的成像要求。根據成像要求,系統獲取了配置方法和融合模式。
在獲取交互任務的過程中,當交互任務對狹小空間的觀察和感知能力要求較高,對遙遠空間的感知能力要求較低時,用戶觀察視點、第一人稱視角是主要視點,多視點融合圖像是主要視點圖像。當交互任務需要在近空間和遠空間中的平均觀察和感知能力時,用戶觀察視圖、第一人稱視角或第三人稱視角是主視圖,多視圖融合圖像是主視圖圖像或次視角圖像。當交互任務在近距離和遠距離空間都需要高感知能力時,用戶觀察視圖是第一人稱視圖,第三人稱視圖是主視圖,多視圖融合圖像是主視圖和次視圖的融合圖像。當交互任務對狹小空間的觀察感知能力要求較低,對遙遠空間的感知能力要求較高時,用戶觀察視點,第三人稱視角是主要視角,多視角融合圖像是第二視角圖像。當交互任務需要對近空間和遠空間的一般觀察和感知能力時,基于主透視圖像的第一邊緣來獲得與主透視圖像第一邊緣相對應的次透視圖像。将次透視圖像與主透視圖像縫合以生成多視圖融合圖像,其中用戶通過用戶命令在主透視圖像和第二透視圖像之間切換。
在此過程中,當交互任務對緊空間和遠空間都需要較高的觀察和感知能力時,系統基于主視角圖像的第一特征獲取第二視角圖像中與第一特征對應的第二特征。然後,連接到第二特征的圖像被融合到主透視圖像。用戶通過選擇第一特征來獲取第二特征。然後,系統基于第三特征獲取與第二透視圖像中的第三特征相對應的第四特征,然後将與第四特征相關的圖像融合到第二透視圖中。用戶可以通過選擇第一和第四特征來獲取與第二和第三特征相對應的多視圖融合圖像。