專利名稱:基于頭戴式可視顯示設備的輸入方法及裝置的制作方法
技術(shù)領域:
本發(fā)明屬于計算機等字符輸入技術(shù)領域。具體講,涉及基于頭戴式可視顯示設備的字符輸入方法及裝置。
背景技術(shù):
鼠標和鍵盤是常用的字符和信息輸入裝置。由于體積重量的限制,便攜設備的鍵盤鼠標使用受到限制。從功能來看,鍵盤是ー種提示裝置,用來與特定字符/字符集對應。因此現(xiàn)有便攜設備也采用基于觸摸屏的虛擬鍵盤實現(xiàn)字符輸入。通過手指或筆觸摸屏幕上顯示字符的區(qū)域來實現(xiàn)字符輸入。這類裝置要求屏幕安裝額外的觸碰檢測裝置如電容薄膜或光學傳感器。在輸入時,手指會遮擋屏幕部分區(qū)域。另ー類便攜設備輸入裝置采用投影式虛擬鍵盤,通過在設備外的某個區(qū)域產(chǎn)生可見的字符投影區(qū)域來模擬鍵盤,并通過光學檢測該區(qū)域手指運動來實現(xiàn)輸入。由于要產(chǎn)生可視的區(qū)域,該類方法對操作環(huán)境有嚴格要求,如投影面應是背景簡單的平面。此外,由于需要単獨的光學裝置來產(chǎn)生可視的輸入圖像區(qū)域,該類方法額外增加了便攜設備的能耗和重量。另外,在追求時尚的當今,頭盔式、眼鏡式等佩戴電腦進入人們的視野,如谷歌眼鏡、eyetop等先進裝備均使用特殊的微型顯示器,該顯示器經(jīng)過人體工程學設計以及光學性能測試,人眼不會出現(xiàn)不舒適感。并且顯示器經(jīng)過光學調(diào)整,可使人眼可見度達到兩米,,感受觀看大屏幕的效果。這類頭戴式顯示器可用于多方面如游戲、虛擬現(xiàn)實、多媒體、娛樂、仿真、科研等諸多領域。但是,實現(xiàn)人機交互方面依靠語音和頭部擺動會在某些環(huán)境下受限,基于實體鍵盤的輸入攜帶不方便。本發(fā)明模擬物理鍵盤的輸入方法對手指跟蹤識別,通過手指運動信息和虛擬鍵盤混合的方法實現(xiàn)人機交互。
發(fā)明內(nèi)容
本發(fā)明g在克服現(xiàn)有技術(shù)的不足,滿足操作者復雜環(huán)境下無線上網(wǎng)、環(huán)境探査、商務辦公等需要。為達到上述目的,本發(fā)明采取的技術(shù)方案是,基于頭戴式可視顯示設備的輸入裝置,包括I)場景采集模塊,包括依次相連的攝像頭、光學鏡頭、攝像頭驅(qū)動電路及傳感器;在頭戴式可視顯示設備上安裝攝像頭,用于捕捉實時場景信息;場景采集模塊將采集到的實時場景信息中手指的運動視頻傳送到處理模塊;2)處理模塊,用于根據(jù)場景采集模塊的輸入建立有效輸入?yún)^(qū)域、輸入場景的成像區(qū)域和鍵盤區(qū)域的映射關系,通過處理模塊中的增強現(xiàn)實軟件在顯示模塊中形成手指運動與虛擬鍵盤混合的信息,通過投影儀投射到人的視網(wǎng)膜;3)顯示模塊,用于將處理模塊的輸出信息呈現(xiàn)給使用者。所述輸入裝置均可與頭盔式電腦、眼鏡式電腦或佩戴式電腦相連?;陬^戴式可視顯示設備的輸入方法,包括如下步驟
采集用戶視野范圍內(nèi)的場景視頻,形成視頻圖像,并與虛擬鍵盤信息疊加,使操作者看到場景信息與虛擬鍵盤信息的混合視頻;其中,輸入時操作者需首先確定場景內(nèi)的有效區(qū)域,該區(qū)域與視頻圖像的區(qū)域?qū)环治鰣鼍皡^(qū)域與虛擬鍵盤區(qū)域的位置對應關系,在顯示圖像區(qū)域形成鍵盤圖案,將虛實結(jié)合的視頻顯示到人眼;采集視頻信息,經(jīng)過處理分析提取操作者手指在有效區(qū)域內(nèi)的運動信息,根據(jù)前述位置對應關系,得到手指運動與虛擬鍵盤關系,從而得到手指運動通過虛擬鍵盤形成的輸入內(nèi)容,井向操作都顯示。(向操作者顯示輸入內(nèi)容。)操作者看到場景信息與虛擬鍵盤信息的混合視頻,根據(jù)操作者首先選擇實現(xiàn)的顯示器中的鍵盤圖案,建立場景區(qū)域、視頻圖像區(qū)域、虛擬鍵盤區(qū)域的映射關系。由于人頭部會發(fā)生移動,有效區(qū)域與虛擬鍵盤區(qū)域需要建立穩(wěn)定性的對應關系,首先通過加速度傳感器獲取人頭部擺動偏移角度,然后通過操作將虛擬鍵盤向相反角度移動,這樣使得有效區(qū)域和鍵盤區(qū)域保持原來的對應關系。 手指運動的分析具體步驟為通過識別手指在輸入?yún)^(qū)域的幾何運動和位置信息實現(xiàn)輸入,手指在輸入?yún)^(qū)域具有絕對的物理位置,通過輸入?yún)^(qū)域和鍵盤區(qū)域的對應關系,手指在鍵盤中的位置也能確定,手指指向的鍵碼因而也能確定;采集手指運動信息,通過傳感器檢測手指運動變化,將場景視頻信息傳給處理模塊,處理模塊通過分析輸入?yún)^(qū)域的運動物體來確定手指及其在視頻圖像中的位置。運動位置與虛擬鍵盤的區(qū)域?qū)?,人手指進行輸入動作時,鍵盤與人手指混合在一起,人眼看到的便是平常按鍵盤的場景。在長期訓練學習中操作者能夠熟悉鍵碼位置,確定對某個鍵碼選擇。本發(fā)明的技術(shù)特點及效果本發(fā)明基于目前頭盔式、眼鏡式、佩戴式電腦通過軟件操作實現(xiàn)手指運動和虛擬鍵盤的虛實混合實現(xiàn)輸入。由于不需要額外的實體鍵盤,可以方便攜帯、節(jié)約能量。在外出時,通過wif1、藍牙等無線連接,操作者就可以上網(wǎng)瀏覽網(wǎng)頁,并且可以自然地實現(xiàn)人機交互。
圖1功能示意圖。圖2組成模塊。圖3顯示器中的混合視頻。圖4區(qū)域?qū)P系。圖5場景采集模塊模塊
具體實施例方式現(xiàn)有的佩戴式、頭盔式、眼鏡式電腦往往只能輸出ー些視頻信息,另外,能實現(xiàn)信息輸入的外接實體鍵盤不方便攜帯,因此需要虛擬鍵盤彌補佩戴式電腦的不足。本發(fā)明應用增強現(xiàn)實技術(shù)在佩戴式電腦顯示器裝置中利用軟件疊加ー個鍵盤圖案,該鍵盤與操作者場景采集裝置中的場景一一對應,增強現(xiàn)實技術(shù)將手指運動信息和虛擬鍵盤通過位置對應實現(xiàn)混合,操作者只要在視野范圍中的有效區(qū)域即可進行輸入,并可以實時觀看自己手指在鍵盤輸入的視頻。本發(fā)明提出了一種通過具有場景采集功能的頭戴式顯示裝置來實現(xiàn)字符輸入的方法。該方法不基于實體鍵盤,可用于尺寸受限或其它不利于實際鍵盤的場合,尤其是便攜設備在移動環(huán)境下的應用。同投影式虛擬鍵盤相比,由于不需要額外的鍵盤顯示區(qū)域,使得輸入形式更靈活。本發(fā)明實現(xiàn)可以采用獨立有攝影功能的佩戴式顯示裝置,也可以結(jié)合現(xiàn)有產(chǎn)品如谷歌眼鏡等。本發(fā)明的功能示意圖如圖1。輸入字符時,用戶佩戴具有場景采集功能的裝置,場景采集模塊與顯示模塊可以集成也可獨立。本裝置的場景采集模塊采集用戶視野范圍內(nèi)的場景視頻,通過處理模塊形成視頻圖像,并與虛擬信息疊加,輸入到顯示模塊顯示;顯示器通過微小投影儀將圖像投射到人眼視網(wǎng)膜,操作者可以看到場景信息與鍵盤的混合視頻。輸入時操作者需首先選取場景內(nèi)的有效區(qū)域,該區(qū)域與視頻圖像的區(qū)域?qū)?。?jīng)過分析場景區(qū)域與虛擬鍵盤區(qū)域的位置對應關系,在顯示圖像區(qū)域形成鍵盤圖案,將虛實結(jié)合的視頻顯示到人眼。另外,操作者可以首先實現(xiàn)顯示器中的鍵盤圖案,然后建立場景區(qū)域、成像區(qū)域、鍵盤區(qū)域的映射關系。利用攝像模塊采集視頻信息,經(jīng)過處理模塊分析提取運動信息,最終傳遞給顯示模塊顯示輸入字符。因此,用戶在場景輸入?yún)^(qū)域移動手指選擇對應鍵碼,就可以完成字符輸入,本發(fā)明通過連接便攜設備能夠?qū)崿F(xiàn)上網(wǎng)、數(shù)據(jù)傳輸?shù)纫话阋苿釉O備的輸入處理功能。本發(fā)明包括如下模塊如圖2I)場景采集模塊該模塊用于采集人眼視野內(nèi)的場景視頻,,經(jīng)過預處理和編碼過程,形成編碼信號傳輸給處理模塊,如圖3。該模塊包括攝像頭、光學鏡頭、支持電路(用于對攝像頭以及接ロ的連接支持)及傳感器。在佩戴的顯示裝置上安裝前視攝像頭,用于捕捉實時場景信息,顯示器與攝像頭可以獨立,也可集成。光學鏡頭與攝像頭安裝在一起來采集數(shù)據(jù),數(shù)據(jù)信息流經(jīng)支持電路,通過傳感器轉(zhuǎn)換輸出。場景采集模塊將采集到的手指運動視頻傳送到處理模塊,使之與顯示模塊中的鍵盤對應。該模塊可由彩色攝像頭實現(xiàn),其視野與人眼視野基本重疊。2)處理模塊 處理模塊是本發(fā)明的核心,用于分析提取場景信息,產(chǎn)生混合視頻,并將信息以混合視頻的形式傳給顯示模塊。如圖4,該模塊首先將編碼視頻信號經(jīng)過圖像處理和特征提取形成位置信息,該位置信息用于形成虛擬鍵盤。然后虛擬鍵盤與編碼視頻信號經(jīng)過軟件混合處理形成混合視頻信息。該模塊混合視頻是通過其增強現(xiàn)實軟件實現(xiàn)的,手指在攝像范圍運動,增強現(xiàn)實軟件對手指環(huán)境實施空間定位,將手指運動與鍵盤的位置對應。該模塊可以與佩戴式裝置集成,通過佩戴裝置的計算能力與軟件控制實現(xiàn)信息處理;也可以通過佩戴裝置的天線連接便攜設備進行信息處理。3)顯示模塊顯示模塊如圖5,包括傳輸接ロ、應用軟件、發(fā)光二極管組成的點陣或像素陣列、信號驅(qū)動電路等。從處理模塊傳輸來的混合視頻信號經(jīng)過顯示模塊輸入接ロ接收,經(jīng)由信號驅(qū)動電路形成視頻驅(qū)動信號,到達顯示屏。顯示模塊是嵌在眼鏡上的微型顯示器,它經(jīng)過人體工程學設計以及光學性能測試,人眼不會感覺不舒適,并且顯示器經(jīng)過光學調(diào)整人眼可見度可以達到兩米,感受觀看大屏幕的效果。采集的視頻經(jīng)過處理模塊中增強現(xiàn)實軟件(argumentedreality technique),形成的是真實場景信息與鍵盤信息疊加,在顯示器中最終展現(xiàn)給操作者的是鍵盤圖案與手指信息的混合。該模塊將處理模塊形成的混合視頻呈現(xiàn)給用戶。此外,本發(fā)明在眼鏡ー側(cè)安裝ー個可選擇鍵盤開啟的開關,方便操作者輸入、查看信息。本發(fā)明功能實現(xiàn)I)混合視頻人眼所看到的混合視頻一方面包括場景信息與一些解釋信息的混合,另ー方面是手指運動信息與鍵盤信息的混合?;旌弦曨l是由處理模塊中的增強現(xiàn)實軟件來實現(xiàn),在鍵盤功能開啟后,鍵盤圖案以反色形式混合到輸入?yún)^(qū)域,手指在有效輸入?yún)^(qū)域內(nèi)運動,該運動視頻被采集模塊采集并傳遞給處理模塊,處理模塊利用手指運動區(qū)域與鍵盤區(qū)域的映射關系形成手指敲擊鍵盤的混合視頻,人可以浸入式感受手指與鍵盤的互動。另外,在鍵盤開關未開啟時,可以查看其它的視頻信息,或者其它增強現(xiàn)實信息。2)輸入?yún)^(qū)域與鍵盤圖像區(qū)域的對應輸入?yún)^(qū)域確定輸入?yún)^(qū)域手指運動情況視頻和鍵碼區(qū)域疊加,手指圖像是半透明狀,鍵盤圖案是非透明的,這樣手指不會遮擋鍵盤圖案。輸入?yún)^(qū)域的尺寸大小由建立的映射關系確定,手指移動顯示在屏幕鍵碼區(qū)域中,根據(jù)人眼觀察屏幕鍵碼區(qū)域可以實現(xiàn)虛擬鍵盤輸入?yún)^(qū)域的輸入,操作的輸入?yún)^(qū)域用軟件控制可以移動,大小可以改變。攝像頭視野與人眼視野范圍相近,有效的輸入?yún)^(qū)域在攝像頭與人眼視野之內(nèi)。鍵盤區(qū)域是顯示器中的虛擬信息,該區(qū)域是通過軟件操作完成的。字符輸入是通過輸入?yún)^(qū)域與鍵盤圖像區(qū)域的一一映射關系來實現(xiàn)的。首先建立三個區(qū)域?qū)P系,即輸入?yún)^(qū)域、輸入場景的成像區(qū)域、鍵盤區(qū)域。以采集成像區(qū)域為橋梁,利用空間定位技術(shù)將輸入?yún)^(qū)域和鍵盤區(qū)域形成對應關系。輸入?yún)^(qū)域小塊與輸入場景的成像區(qū)域一一對應,輸入場景的成像區(qū)域與鍵碼區(qū)域一一對應,三者之間建立直接或間接的對應關系。形成混合視頻的增強現(xiàn)實軟件用到空間定位技術(shù),當人頭部或者視野發(fā)生變化時,作為虛擬信息的鍵盤圖案與輸入?yún)^(qū)域的對應也要發(fā)生變化。由于人頭部會發(fā)生移動,輸入?yún)^(qū)域和鍵盤區(qū)域需要建立穩(wěn)定性的對應關系。首先通過加速度傳感器獲取人頭部擺動偏移角度,然后通過操作將鍵盤向相反角度移動,這樣輸入?yún)^(qū)域和鍵盤區(qū)域保持原來的對應關系。3)手指運動的分析手指指向的確定本發(fā)明通過識別手指在輸入?yún)^(qū)域的幾何運動和位置信息實現(xiàn)輸入。手指在輸入?yún)^(qū)域具有絕對的物理位置,通過輸入?yún)^(qū)域和鍵盤區(qū)域的位置對應關系,手指相對鍵盤的位置確定,手指指向的鍵碼因而也能確定。采集模塊采集手指運動,通過傳感器檢測手指運動變化,將場景中手指運動信號傳給處理模塊,處理模塊利用強大的計算能力分析輸入?yún)^(qū)域的運動物體,確定手指在視頻圖像中的位置。手指運動位置與虛擬鍵盤區(qū)域?qū)?,人手指進行輸入動作時,鍵盤與人手指混合在一起,形成虛實結(jié)合的圖像,人眼看到的便是平常按實體鍵盤的場景。在長期訓練學習中,操作者能夠熟悉鍵碼位置,確定對某個鍵碼選擇。手指動作的確定
在輸入過程中,鍵碼顯示模塊將手指對應的鍵碼通過放大或加深增強顯示。當手指移動到不同鍵碼區(qū)域和確認鍵碼時,顯示模塊驅(qū)動移動設備產(chǎn)生切換或確認的提示音。相似的,在鼠標和鍵盤輸入功能切換時,顯示模塊也驅(qū)動移動設備產(chǎn)生視覺與聲音提示。由于顯示器中手指運動的視頻和虛擬鍵盤融合為平常的實體按鍵場景一祥,輸入時該字符會凸顯,人可以看到自己按到的具體字符,“點”確定就能實現(xiàn)輸入。本發(fā)明通過分析手指形狀的變化確定鍵碼是否按下。輸入時,手指距離攝像頭相對距離發(fā)生改變,手指粗細也發(fā)生變化。另外,手指輸入時手指頭部發(fā)生彎折,在對應圖像中,指甲形狀會變形甚至消失。通過判斷指甲形狀變化,確定手指的動作。工作流程便攜設備輸入工作流程首先,對設備初始化,開啟輸入模式。其次,建立輸入?yún)^(qū)域、輸入場景的成像區(qū)域和鍵盤區(qū)域的映射關系。輸入?yún)^(qū)域是人眼視野范圍中的區(qū)域,手指在該區(qū)域運動,場景采集裝置對場景信息進行采集,通過處理模塊中的增強現(xiàn)實軟件,在顯示器中形成手指運動與虛擬鍵盤混合的信息,通過投影儀投射到人眼的視網(wǎng)膜。預處理過程中,輸入?yún)^(qū)域與虛擬鍵盤區(qū)域?qū)P系的實現(xiàn)是預先在顯示器上形成虛擬鍵盤區(qū)域,然后通過空間對應關系及手指移動預處理過程確定輸入?yún)^(qū)域然后,對手指運動識別。手指識別通過傳感器模塊,光學鏡頭與支持電路和處理模塊完成。場景采集裝置中傳感器檢測手指運動,采集到視頻后傳到處理模塊,由處理模塊確定手指位置,形成鍵盤和手指運動的混合視頻展現(xiàn)在顯示器中,完成輸入操作。最后,完成所有輸入操作后,關閉輸入功能。初始化初始化是機器訓練學習的過程,包括手指位置的確定,手指的特定動作,以及輸入?yún)^(qū)域與鍵盤區(qū)域的對應。顯示屏幕中設置輸入提示燈,該提示燈亮時,手指開始進行輸入,結(jié)合手指運動視頻和鍵盤區(qū)域的疊加信息,通過四個頂點鍵碼作為定位鍵確定輸入?yún)^(qū)域邊界。系統(tǒng)集成目前頭盔式電腦、眼鏡式電腦、佩戴式電腦均已推出,在已有基礎設備上可以集成輸入功能模塊。與本發(fā)明集成的設備稱為頭盔式設備和眼鏡式設備。兩種設備都有顯示器和攝像頭,顯示器在人眼附近,操作者能夠接收視野范圍內(nèi)的顯示信息。攝像頭的視野范圍與人的視野范圍相近,這樣可使得人眼不易疲勞。處理模塊可以與佩戴式裝置集成,通過佩戴裝置的計算能力與軟件控制實現(xiàn)信息處理;也可以通過佩戴裝置的天線連接便攜設備進行信息處理。I)頭戴式電腦中在頭盔上加一個攝像頭作為場景采集裝置,頭盔的顯示器和攝像頭可以獨立,處理模塊嵌入電腦處理器中分析場景位置信息,并且完成場景信息與虛擬鍵盤的疊加形成混合視頻,人眼從電腦顯示器中查看輸入操作。2)眼鏡式電腦例如google眼鏡或者eyetop在眼鏡片中有作為顯示模塊的獨立顯示器,眼鏡側(cè)面有一個鼠標操作裝置,還有ー個輸入開啟功能按鈕。前視攝像頭的位置可以在顯示器上方,也可在鏡架之間。眼鏡式電腦便攜輕巧,在復雜環(huán)境下也能方便操作。
權(quán)利要求
1.一種基于頭戴式可視顯示設備的輸入裝置,其特征是,包括 1)場景采集模塊,包括依次相連的攝像頭、光學鏡頭、攝像頭驅(qū)動電路及傳感器;在頭戴式可視顯示設備上安裝攝像頭,用于捕捉實時場景信息;場景采集模塊將采集到的實時場景信息中手指的運動視頻傳送到處理模塊; 2)處理模塊,用于根據(jù)場景采集模塊的輸入建立有效輸入?yún)^(qū)域、輸入場景的成像區(qū)域和鍵盤區(qū)域的映射關系,通過處理模塊中的增強現(xiàn)實軟件在顯示模塊中形成手指運動與虛擬鍵盤混合的信息,通過投影儀投射到人的視網(wǎng)膜; 3)顯示模塊,用于將處理模塊的輸出信息呈現(xiàn)給使用者; 所述輸入裝置均可與頭盔式電腦、眼鏡式電腦或佩戴式電腦相連。
2.一種基于頭戴式可視顯示設備的輸入方法,其特征是,包括如下步驟采集用戶視野范圍內(nèi)的場景視頻,形成視頻圖像,并與虛擬鍵盤信息疊加,使操作者看到場景信息與虛擬鍵盤信息的混合視頻;其中,輸入時操作者需首先確定場景內(nèi)的有效區(qū)域,該區(qū)域與視頻圖像的區(qū)域?qū)环治鰣鼍皡^(qū)域與虛擬鍵盤區(qū)域的位置對應關系,在顯示圖像區(qū)域形成鍵盤圖案,將虛實結(jié)合的視頻顯示到人眼;采集視頻信息,經(jīng)過處理分析提取操作者手指在有效區(qū)域內(nèi)的運動信息,根據(jù)前述位置對應關系,得到手指運動與虛擬鍵盤關系,從而得到手指運動通過虛擬鍵盤形成的輸入內(nèi)容,并向操作都顯示。
3.如權(quán)利要求2所述的基于頭戴式可視顯示設備的輸入方法,其特征是,操作者看到場景信息與虛擬鍵盤信息的混合視頻,根據(jù)操作者首先選擇實現(xiàn)的顯示器中的鍵盤圖案,建立場景區(qū)域、視頻圖像區(qū)域、虛擬鍵盤區(qū)域的映射關系。
4.如權(quán)利要求2所述的基于頭戴式可視顯示設備的輸入方法,其特征是,由于人頭部會發(fā)生移動,有效區(qū)域與虛擬鍵盤區(qū)域需要建立穩(wěn)定性的對應關系,首先通過加速度傳感器獲取人頭部擺動偏移角度,然后通過操作將虛擬鍵盤向相反角度移動,這樣使得有效區(qū)域和鍵盤區(qū)域保持原來的對應關系。
5.如權(quán)利要求2所述的基于頭戴式可視顯示設備的輸入方法,其特征是,手指運動的分析具體步驟為通過識別手指在輸入?yún)^(qū)域的幾何運動和位置信息實現(xiàn)輸入,手指在輸入?yún)^(qū)域具有絕對的物理位置,通過輸入?yún)^(qū)域和鍵盤區(qū)域的對應關系,手指在鍵盤中的位置也能確定,手指指向的鍵碼因而也能確定;采集手指運動信息,通過傳感器檢測手指運動變化,將場景視頻信息傳給處理模塊,處理模塊通過分析輸入?yún)^(qū)域的運動物體來確定手指及其在視頻圖像中的位置。運動位置與虛擬鍵盤的區(qū)域?qū)?,人手指進行輸入動作時,鍵盤與人手指混合在一起,人眼看到的便是平常按鍵盤的場景。在長期訓練學習中操作者能夠熟悉鍵碼位置,確定對某個鍵碼選擇。
全文摘要
本發(fā)明屬于計算機等字符輸入技術(shù)領域。滿足操作者復雜環(huán)境下無線上網(wǎng)、環(huán)境探查、商務辦公等需要,本發(fā)明采取的技術(shù)方案是,基于頭戴式可視顯示設備的輸入裝置,包括1)場景采集模塊,包括依次相連的攝像頭、光學鏡頭、攝像頭驅(qū)動電路及傳感器;2)處理模塊,用于根據(jù)場景采集模塊的輸入建立有效輸入?yún)^(qū)域、輸入場景的成像區(qū)域和鍵盤區(qū)域的映射關系,通過處理模塊中的增強現(xiàn)實軟件在顯示模塊中形成手指運動與虛擬鍵盤混合的信息,通過投影儀投射到人的視網(wǎng)膜;3)顯示模塊,用于將處理模塊的輸出信息呈現(xiàn)給使用者。本發(fā)明主要應用于計算機等字符輸入。
文檔編號G06F3/01GK103019377SQ20121051330
公開日2013年4月3日 申請日期2012年12月4日 優(yōu)先權(quán)日2012年12月4日
發(fā)明者劉立, 尹召芳, 王夢珍 申請人:天津大學