電腦視覺監控產學研聯盟

The Industrial Liaison Program Of  VBIE

 

2010年 10 月第 40 期

電子報

 

 

 

 

 

 

發行單位:電腦視覺監控產學研聯盟

出刊日期:2010年09月

本期主編: 王聖智

本期聯絡人:楊耀萱

(03)-571-2121轉56601

新竹市大學路1001號

國立交通大學資訊工系 

電腦視覺監控產學研聯盟網站: 

http://vbie.eic.nctu.edu.tw/

 

         

 

經濟部以視覺為基礎之智慧型環境的建構四年計畫(II)99年度研發成果發表暨技轉說明會介紹

2010 CVGIP研討會報導

 

以資訊隱藏技術做監控影片中人身隱私與秘密片段之消除、保護與搜尋

基於影像掃描之人體姿態識別系統

 

 

經濟部以視覺為基礎之智慧型環境的建構四年計畫(II)99年度研發成果發表暨技轉說明會介紹

    國立交通大學「電腦視覺研發中心」是台灣最大安全監控產業的智慧人才庫,已連續六年舉辦成果發表會。今年於9/10(五)上午九時於台北福華文教會館14樓舉辦99年度技術成果發表暨技轉說明會,會中將發表11項最新穎、最富創意的產業新技術,包括消除監控影片中隱私片段、醫療機器人行動輔助器、快速影像亮度強化、人移動步伐辨識、人類輪廓模型建構與偵測、監控視訊濃縮與快速瀏覽、人臉辨識、夜間與低光源環境之物件偵測、加密式監視系統之物體偵測、嵌入式車牌辨識系統、抽煙及喝飲料偵測系統等技術,以下我們就對其中幾項技術進行一些簡短的介紹。

保護隱私!消除、保護與搜尋監控影片中人身隱私與秘密片段

    隨著時代的進步,人們對隱私權的要求更勝以往,然而隨著越來越多的監控攝影機圍繞在人們的生活環境,個人的隱私越來越需要被重視。一般人都不希望自己的個人生活出現在監視畫面中,即使是用自家或是辦公室內的攝影機所攝取的影片,也會有不想公開的隱私區域畫面。正因為如此,交大蔡文祥講座教授所帶領的電腦視覺研發中心發展了一套可用來隱藏影片中所指定隱私區域中私人行為的技術。此技術可將指定的隱私區域中的所有行為從影片中消除掉,同時將這些隱私區域的行為做加密並藏入影片中。使用此技術處理後之監控影片,其他人無法任意觀看隱私區域的任何行為;只有在當事者合理授權的情況下,才可將影片解密、觀看隱私區域內行為之影片原樣。如此,既可達到保護個人隱私的目的,又可保有監控保全及查證之功能。此外,為了避免所儲存之隱藏資訊被竄改,此技術也包含了驗證之功能,能夠讓使用者知道被另存的隱私影片片段是否有被竄改過;驗證之後並可同時顯示出遭竄改之區域。藉此作用可確保被儲存之資訊的正確性。另交大也針對所隱藏隱私區域中行為的影視片段提供方便的檢索技術,能夠針對一特定區域找出是否有隱藏的行為視訊,並在當事者的授權下,快速的找出行為資訊的影片片段做瀏覽或其他應用。

醫療機器人行動輔助器,讓老人行走更安全

    本醫療機器人行動輔助器之閃避障礙物行為設計主要的目的在於能夠使輔助器避開障礙物而不會發生碰撞,能夠指引老年人找出即時且較好的閃避路徑來閃避輔助器行進方向上的障礙物;重力補償行為設計主要目的在所設計的輔助器是由四個輪子來保持車體平衡,當在有傾斜的地面行走時,輔助器會因為地心引力關係而下滑,重力補償使得輔助器不會下滑,且操控者不需負擔輔助器在斜坡上所產生的重力以增加安全性。

抽菸、喝飲料事件偵測系統,有效勸阻禁食禁煙

    菸害防制法已98年1月11日施行,在KTV、網咖、候車月台等三人以上室內公共場所將全面禁菸,癮君子在抽菸前得多注意,一不小心就可能觸犯菸害防治法,將面臨兩千到一萬元罰鍰,在捷運內同樣道理也是禁止飲食,但對警方而言,限於人力,並無法隨時隨地勸阻,利用此系統可有效地,對在公共場所裡,抽菸、喝飲料與打手機等異常事件做有效地即時偵測與發表警告訊息。

2010 CVGIP研討會報導

日期:2010年8月15~17日
地點:高雄蓮潭國際會館

     第二十三屆電腦視覺、圖學與影像處理研討會(CVGIP2010)舉辦於高雄蓮潭國際會館。研討會過程中集合許多影像處理、電腦視覺、圖學等專家學者,以口頭報告或廠商展示的方式發表其研究成果,並探討目前相關領域的重要發展趨勢。

 今年CVGIP適逢情人節,大會還貼心的準備情人節巧克力及玫瑰花束贈與所有報到者,真貼心!

    另外今年CVGIP的accepted papers 方面,General Session 的部分有185篇,而Invited Sessions則有19篇。

    此外學會優良論文獎有兩篇,得獎教授跟學生分別為 :
得獎人 得獎論文
許志仲、林嘉文、許秋婷、廖弘源 (307) Face Hallucination Using Bayesian Global Estimation and  Local Basis  Selection
邱柏訊、林士堯、 詹力韋、
余能豪、洪一平
(440) Projector Calibration of Multi-Resolution Display

    林嘉文老師介紹了一種two step的系統能把低解析度的 Face-Image 轉為高解析度的圖片,呈現出高解析度般的細節,對於Face-Detection方面有顯著的貢獻。另一方面洪一平老師則提出了多解析度的投影機校正方式,使得畫面中使用者需要的部分能夠以高解析度的方式呈現,目前已跟故宮博物院合作。

    佳作論文獎方面,教授和學生分別為:
得獎人 得獎論文
許朝詠、呂俊賢、貝蘇章  (086) Homomorphic Encryption-based Secure SIFT for Privacy-Preserving Feature Extraction
陳冠文、李佩君、洪一平 (311) Egocentric View Transition with a Particle Based Visualization for Video Monitoring
貝蘇章、張鳳洳 (320) Effective Color Constancy Method Under Uniform or Non-Uniform Illuminant
謝中閎、李建德、
黃鐘賢、李石增
(478)  A Stereo-Vision-Based Method for Brain-Surface Deformation Estimation using Feature Points Correspondence and Thin-Plate Spline
謝豐陽、洪宗湧、
王嘉銘、范國清
(629) Single Image Deblurring With Efficient Multiscaled Kernel Estimation
林進燈、許勝智、
林峻永、李佳芳
(706) A Fully-Automated 2D to 3D Image Conversion Technique Applied on Stereo Display
李柏蒼、王勝毓、黃仲陵 (719) Using Modified View-Based AAM to Reconstruct the Frontal Facial Image with Expression from Different Head Orientation
賴怡臻、蔡文祥 (731) Secret-fragment-visible Mosaic — A New Image Art and Its Application to Information Hiding

    另外大會這次Keynote Speeches請到了微軟亞洲工程院總監 芮勇博士,和台大資工系教授 同時也是IEEE fellow的吳家麟博士。芮勇博士演講有關Image Search方面的演進,同時也提出了有關的最新方式,使Image Search的技術更加成熟。吳家麟博士則演講關於The Interaction between Media Computing and Social Computing的有關技術,讓所有與會者對於Media和Social間的Computing有更深的了解。
大會茶敘時間,大家都出來吃點心囉!

今年大會在最後一天也精心準備了晚宴,還請來了歌手助陣、川劇變臉、肚皮舞等等表演,晚宴的中間也有抽獎活動,獎項包含PSP掌上型遊戲機、4G隨身碟、折價卷…等等,讓許多與會者都滿載而歸。

    最後附上今年的大會議程 :

以資訊隱藏技術做監控影片中人身隱私與秘密片段之消除、保護與搜尋

    隨著時代的進步,社會中圍繞著無所不在的監控攝影機,雖然帶來許多安全監控上的便利,卻是個人隱私的最大威脅。例如路口的監視攝影機畫面,常會拍攝到周遭住戶的窗戶、大門或是院子的私人區域,該監控視訊可能就會產生侵犯隱私權之問題。除此之外,監控視訊是一種數位資訊,容易遭到竄改。在錄影的視訊愈長時,若要找在特定區域行為的視訊片段,是相當的相當費時。

    因此,我們認為一個智慧型監控系統應該具備有三項能力:1.有隱私保護的能力---可以根據當事者意願保護他們的隱私;2.有影片驗證的能力---能夠驗證影片是否有遭到竄改;3.有快速檢索的能力---能針對特定區域做隱藏視訊之偵測與檢索。   

    所以,我們提出了擁有上述三項能力之技術,其主要功用是能在MPEG-4 AVC/H.264的監控影片中,將隱私區域中之個人行為加以消除,並將這些行為以資訊隱藏技術藏入於該影片中,使其他人無法觀看,達到個人隱私權的保護,並且針對該藏入資訊做真實性驗證及快速檢索。

    更詳言之,我們發展了一個可將被侵犯隱私權的視訊區域中之個人行為,從影片內容中消除並藏入該影片內,之後還可將其復原的方法。在驗證方面,因為所儲存的資訊可能會被竄改,所以我們利用資訊隱藏技術及MPEG-4 AVC/H.264特性,對此一資訊做保護處理,讓使用者能在再度存取及重現該隱私影片片段時,對其做完整性及真實性的驗證,並在影片中顯示被竄改之區域。而在影片檢索部份,我們亦能針對一特定區域來找出是否有隱藏的行為資訊,並在當事者的合理授權下,快速找到該區域中之行為資訊的影片片段。

    本系統方法可分為三個部份:(1)隱私區域之保護、(2)影像驗證、(3)隱私行為片段之快速檢索。系統功能包括:
●  對監控影片中的隱私區域做保護,可消除隱私區域內行為的視訊片段。
●  對監控之視訊加入驗證訊號,以防止遭到竄改。
●  對先前儲存隱私行為片段作快速檢索。

    在隱私區域保護的部份中,本技術可以讓使用者挑選影片中的某一區域,並把該區域之隱私行為隱藏至該影片中後,以背影取代該區域。在必要時,也能經由當事者的同意並授權之下,能回復該區域的隱私行為之片段,如圖一所示。
圖一、左圖為顯示隱私區域行為之影片,右圖為消除隱私區域行為後之影片

    在影像驗證的部份,本技術也會根據使用者所輸入的KEY與行動向量來產生驗證訊號,並把其藏入該影片中。在驗證時,會根據該訊號來辨別此一影片是否有遭到不法的竄改,如果有的話,本技術也會標示出被竄改之區域,如圖二所示。
(a)
(b) (c)
圖二、(a)原始影像。(b)遭到竄改之影像。(c)本技術之驗證結果。

    在搜尋的部份,我們能針對某一特定的地區來做是否有隱藏資訊之檢索,並且在當事者的授權下,能對被隱藏的行為資訊做索引,讓使用者能夠直接選取觀看該資訊之視訊片段,圖三為本技術對選定的區域內之隱私行為做快速檢索之介面,在左圖選取要搜尋之區域後,其索引結果顯示在右方,來讓使用者來選取並做播放。
圖三、對選定的區域內之隱私行為做快速檢索

    經由上述之技術,本系統能在監控的環境中,能夠針對於個人的隱私做確切的保護,並且能確認該影片之真實性,也能針對特定區域之行為資訊的快速檢索,來達到一個智慧型監控系統所需具備之能力。

基於影像掃描之人體姿態識別系統

    近年來,人類行為認知的應用越來越廣泛,例如在行為分析方面可藉由科技的輔助(安全監控系統、感應裝置)來偵測跌倒等異常事件,並在意外發生時發出警報,使得醫療人員及看護的負擔得以減輕,並有效地減少醫療人力成本之浪費,但是多數之人類行為認知的研究常需使用昂貴之設備,或是要求被觀測者使用較不方便的穿戴式感應器,使得成本偏高或是方便性不足。同時,被觀測者通常不希望自己的真實影像被記錄和檢視,因此需注重保護被觀測者之隱私。透過監視攝影機擷取之影像來識別各個人物肢體識別的主要目的,是希望藉由偵測被觀測者的頭、手、腳等位置,來辨別人物目前的活動屬於哪一種姿態,同時能夠保護被觀測者之隱私權。為達成此目的,我們使用一資料量極少的人體模型來表示人物。

頭與四肢之偵測

    在上期的電子報中,我們完成了一個基於掃描線演算法之近似中心軸線分析,以萃取出各肢體對應之近似中軸線段,而在本期的電子報中,我們將介紹如何以這些萃取出的資訊,進一步的辨別哪些部位屬於頭、手或是腳。在此我們簡單的回顧一下上期電子報所描述的方法。首先我們需要偵測人體區域,此步驟可利用背景減去法(background subtraction)、連通元件標記法(connected component labeling)以及型態學上的技巧:侵蝕(erosion)、擴散(dilation)。可得到如圖1-1中的人體區域。
圖1-1

    接著我們將所得到的人體區域,利用0°、45°、90°和135°四個方向以固定間隔的掃描線掃描,藉此擷取人體區域之橫截面,並將過短的橫截面剔除,再以連接橫截面的中點來建立近似中軸線段,以形成近似中軸線段。此外我們也會偵測出肢體末端資訊。如圖1-2中藍色點所示。這四個方向的近似中軸線段將會被進行整合,使得每個肢體僅由一個近似中軸線段來表示。經上述步驟後,我們已經偵測出頭手腳之近似中軸線段及其末端點,然而我們仍不知道此五個近似中軸線對應的是頭、手或是腳。因此,在本期的電子報中我們將辨別近似中軸線段所對應的肢體部位為頭、手或是腳。
(a) (b) (c) (d)
圖2-4掃描線代表肢體末端的近似中軸線段:(a) 0°,(b) 45°,(c) 90°,(d) 135°。

頭、手、腳之辨識

    在找出代表各肢體的近似中軸線段後,我們希望進一步地利用近似中軸線的資訊,判斷其代表的肢體部位。如圖2-1所示,近似中軸線段可提供的資訊有:

    (a) 角度:連接末端特徵點及非末端特徵的橫截面起點與終點來計算其夾角,如藍色部分所示。
    (b) 長度:末端特徵點到非末端特徵的橫截面中點的距離,如紅色部分所示。
    (c) 寬度:末端特徵點和非末端特徵的橫截面平均寬度,如綠色部分所示的寬度平均。
    (d) 長寬比:末端特徵到非末端特徵的橫截面的垂直距離及寬度的比例,如圖2-1中紫紅色部分所示的垂直距離長度除以寬度平均。
圖2-1近似中軸線段的資訊。

    在經過觀察後,發現可以利用這些資訊判斷並分類出各個部位。經歸納後,我們可先依找到的肢體數量分成四種情況,各情況下再利用不同的規則來辨別肢體部位:

情況一 (5個肢體):

    (1) 找出的5個肢體中,不含多節肢體中角度最大的即是頭。
    (2) 找到距離頭最遠的2個肢體即是腳。
    (3) 剩下的2個肢體就是手。

情況二 (4個肢體):

    (1) 找出4個肢體中,不含多節肢體中角度最大和最小的近似中軸線,如果最大和最小的角度差值小於Theadless,則是0頭2手2腳的情形,跳至步驟(2),否則最大角度的就是頭,跳至步驟(4)。
    (2) 判斷人體區域的長寬比是否大於Tlie,如果是,則使用0°掃描線最上面的橫截面中點來當作參考點,否則使用90°掃描線最右邊的橫截面中點來當作參考點。
    (3) 找到距離參考點最遠的2個肢體即是腳,剩下的2個肢體就是手。
    (4) 找到距離頭最遠的2個肢體,如果第二遠跟最遠的比值大於門檻值 Tfoot 就二個都是腳,否則只有最遠的一個是腳。而剩下的肢體就是手。  

情況三 (3或4個肢體,此情況下都會再分成有頭或無頭的情況):

    (1) 找出3個肢體中,不含多節肢體中角度最大和最小的近似中軸線,如果最大和最小的角度差值小於 Theadless ,則跳至步驟(2),否則最大角度的就是頭,跳至步驟(4)。
    (2) 判斷人體區域的長寬比是否大於 Tlie ,如果是,則使用0°掃描線最上面的橫截面 y 值到最下面的橫截面 y 值的距離來當作參考距離,如果末端特徵的 y 值在最上面的橫截面 y 值的1/10參考距離範圍內就是頭。否則使用90°掃描線最右邊的橫截面 x 值到最左邊的橫截面 x 值的距離來當作參考距離,如果末端特徵的 x 值在最右邊的橫截面 x 值的1/10參考距離範圍內就是頭。如果有找到頭,則剩下兩個肢體就是腳。
    (3) 如果人體區域的長寬比大於 Tlie ,則使用0°掃描線最上面的橫截面中點來當作參考點,否則使用90°掃描線最右邊的橫截面中點來當作參考點。找到距離參考點最遠的2個肢體,如果第二遠跟最遠的比值大於門檻值 Tfoot 就兩個都是腳,否則只有最遠的一個是腳。而剩下的肢體就是手。
    (4) 判斷頭到兩個肢體的距離比值是否小於 Tfoot ,如果是,則最遠的一個是腳,另一個就是手。否則如果人體區域的長寬比大於 Tlie ,使用掃描線最上面的橫截面中點到最下面的橫截面中點的距離來當作參考距離,否則使用90°掃描線最右邊的橫截面中點到最左邊的橫截面中點的距離來當作參考距離,最後判斷頭到肢體的最遠距離和參考距離比值是否大於門檻值 Tfoot ,如果是就判斷兩個都是腳,否則兩個就是手。

情況四 (1或2個肢體):

    (1) 判斷人體區域的長寬比是否大於 Tlie ,如果是則代表是直立的,跳至步驟(2)。表示躺著的,跳至步驟(3)。
    (2) 使用0°掃描線最上面的橫截面 y 值到最下面的橫截面 y 值的距離來當作參考距離,如果末端特徵的 y 值在最上面的橫截面 y 值的1/10參考距離範圍內就是頭。如果在最下面的橫截面 y 值的3/10參考距離範圍內就是腳,剩下就是手。  
    (3) 使用90°掃描線最右邊的橫截面 x 值到最左邊的橫截面 x 值的距離來當作參考距離,如果末端特徵的 x 值在最右邊的橫截面 x 值的1/10參考距離範圍內就是頭。如果在最左邊的橫截面 x 值的3/10參考距離範圍內就是腳,剩下就是手。

實驗結果與討論

    由於居家看護系統中,看護對象往往不希望自己的真實影像被記錄與檢視,且處理端跟顯示端通常會設置在不同地方,例如在房間裡偵測到人體並加以分析,把結果傳到一個中央控制室做顯示,因此傳輸的資料要越少,會使得傳輸速度越快。因此本研究為了使隱密性較高、資料傳輸量較少,而使用了骨架式人體姿態模型來表示。圖3-1 (a)為前背景圖,圖3-1(b)為使用的人體模型,紅色代表頭,綠色代表手,藍色代表腳,黑色的點是定位點。
(a) (b)
圖3-1 人體模型表示結果:(a) 前背景圖,(b)人體模型表示。

    我們利用實作出來的姿態識別系統來進行實際影像畫面的實驗,並證明本研究的系統具有較佳的正確性與實用性。如圖3-2所示,影片中的人物走一段路後坐下來。而其結果如表1所示,我們可以看到識別的結果良好。其中5個肢體(1頭2手2腳),準確率達100%,4個肢體時,正確率89.79%,為整體識別正確率最低,但整體的準確率仍相當良好。
(a) (b)
(c) (d)
(e) (f)
圖3-2 人物走動並坐下的連續中紅外線影像及姿態識別後所產生的人體模型。

表1 人物走動並坐下的連續中紅外線影像的姿態識別正確率。
  肢體種類 各個肢體標記正確率 整個影像正確率
辨識出frame數/實際frame數
5個肢體 1頭2手2腳   58/58 (頭)    58/58 = 100%
(手)  116/116 = 100%
(腳)  116/116 = 100%
(total)290/290 = 100%
58/58 = 100%
4個肢體 1頭1手2腳   43/47
1頭2手1腳    1/2
0頭2手2腳    N/A
(頭)  44/49 = 91.83%
(手)  49/51 = 96.07%
(腳)  92/96 = 95.83%
(total)186/196 = 94.89%
44/49 = 89.79%
3個肢體 1頭0手2腳   57/61
1頭1手1腳   29/33
1頭2手0腳    N/A 
0頭1手2腳    N/A
0頭2手1腳    N/A
(頭)  86/94 = 91.48%
(手)  32/33 = 96.96%
(腳)  147/155 =96.15%
(total)265/282 = 93.07%
86/94 = 91.48%
2、1個肢體 1頭1手0腳    N/A
1頭0手1腳   54/54
0頭1手1腳    5/5
0頭2手0腳    N/A
0頭0手2腳    N/A
1頭0手0腳    N/A
0頭1手0腳    N/A
0頭0手1腳    0/1
(頭)   54/54 = 100%
(手)     5/5 = 100%
(腳)   60/60 = 100%
(total)119/119 = 100%
60/60 = 100%
Total (頭) 243/255 = 95.29%
(手) 202/205 = 98.53%
(腳) 415/427 = 97.18%
(total)860/887 = 96.95%
248/261 = 95.01%

結論

    我們提出了一個人體姿態識別之方法,能有效率地的識別出人體的頭、手、腳。此外我們提出了一個可以充分表示人物姿態的模型,僅需極小量的資料傳輸並兼具保護被觀測者隱私之特性,特別適合用於網路頻寬受限制的環境。實驗的結果驗證了本方法對於肢體識別的準確性。未來我們希望能進一步將分析的結果應用於人機互動或是人物的行為分析方面。

有關本學界科專計畫、電腦視覺監控產學研聯盟、以及電子報之背景與相互關連都已在電子報創刊號詳細說明。本期電子報由分項A子項2主編,在此,我們簡介此子項於學界科專98年度之研究計畫:

子項A2於本年度的研究重點在於使監控人員在一攝影機網路的監控環境下,更容易在不同場景之間追蹤與監控多個目標物,並提供可疑事件的歷史監控記錄與資料庫搜尋,使監控人員能更方便進行中控室操控。本年度的研究主題如下:

1.  停車場之人車連續追蹤:有別於之前的技術,在跨攝影機目標物追蹤上,僅使用時空特徵與外觀顏色特徵。在本年度的研究,我們預期以加入幾何特徵為研究方向,藉由目標物幾何特徵在行進過程中的一致性,並與之前已使用的特徵進行整合,以提高追蹤正確率。我們也預期發展人車的分辨模組,透過機器學習方法的設計與實作,進行物體的部件的分析與辨認,以便提高人車追蹤的效能。

2.  可疑人物之長程追蹤:設計一長程策略來分析可疑人物之行為,藉由結合系統所提供之長程蒐集可疑人物之資訊,來彌補短程偵測方法之不足,以提升單一攝影機可疑人物偵測之正確性。並且,將動態呈現目標物的可疑程度,以提升中控室使用者對場景中人物的即時掌握程度。

3.  可疑事件在中控室之視覺化顯示:開發一攝影機是否遭到遮蔽或明顯移動的偵測技術,例如:攝影機遭到轉向、遮蔽或是鏡頭遭塗抹異物以致無法取得正常之監控影像。並且,將發展一整合攝影機網路的視覺化顯示中控室系統,該系統藉由整合平順轉場技術與多重解析度顯示技術,以提升使用者於中控室的監控效率與操作方便性。

 

 

近年來全球安全監控產業呈現穩定成長趨勢,並由於數位時代的進展,安全監控產品技術層次也不斷提升,進而與其他產業整合,預期未來安全監控領域是安全產業中最具發展潛力的領域之一。此外,由於現代科技的進步,醫療技術與品質提升,使國民平均壽命逐年攀升。在新人口結構變化趨勢下,如何滿足老年人健康照護需求的問題不容小覷,相對而言,也造就了新的商機。根據工研院IEK推估,台灣高齡產業市場規模在2025年可望達到1089億美元。

展望未來產業趨勢,安全監控產業以及高齡產業市場規模將持續增加。因此,本中心將以前期所開發之100餘項相關核心技術,規劃二個系統整合方向 — (1)智慧型建築(smart building),結合資訊、通訊與視訊技術,整合創造科技與人文結合的智慧型大樓;(2)智慧型社區(smart community),結合鄰里以及警政單位,規劃全方位無死角社區或園區智慧型監控系統 期許透過系統整合,勾勒具視覺感知能力之安全環境架構,以建構全面智慧型環境,讓人們悠遊於舒適的環境之中,並協助國內廠商尋找智慧型監控環境之藍海策略,使台灣成為安控產業之明日之星 。

學界科專計畫已邁入第二期,本期研發重點,在技術策略方面,朝向「多層次多感測無縫隙系統」發展,結合視訊與感測器(sensor)成為一全方位監控安全系統。在技術落實方面,朝向下列三目標執行:

(1) 提升技術成熟度、可靠度及穩定度

(2) 以嵌入式系統具體化前期核心技術

(3) 整合前後期核心技術,以發展商品化之產品。

每一分項之主要工作項目概述如下,詳細內容後述之。

分項一:智慧型建築(Smart Building)

分項一的研發主軸為智慧型建築(smart building)的前瞻性技術研發,工作項目如下。

A1.日夜安全巡邏與訪客引導系統---室內空間智慧型巡邏與避碰利用自動車引導訪客、紅外線影像處理與自動車夜間導航、多自動車協同巡邏與異常偵測等。

A2.視訊監控中央管理系統---攝影機網路之目標物即時追蹤與預測、視訊資料庫搜尋、與資訊整合視覺化。

A3.室內突發事件分析系統---室內突發事件分析之技術開發主軸分隊針對人員及環境設計各項突發事件偵測技術,研發技術包括:人員異常行為分析、訪客異常行為偵測、環境突發事件偵測限制區域之監控、限制區域之監控。在技術策略方面,朝向結合視訊與感測器(sensor),發展成為一全方位監控安全系統。

分項二:智慧型社區(Smart Community)

以多層次多感測無縫隙的技術為發展目標,分項二的技術研發主軸定位在智慧型社區(smart community)安全的前瞻性技術研發,主要工作項目如下所列。

B1. 人車偵測與辨識系統---即時車型和車輛之偵測和辨識、車輛管制系統、PTZ攝影機人員偵測與辨識等。

B2. 強健性物件追蹤系統---全天候物件偵測與追蹤、即時物件追蹤技術、多感測器人員追蹤、多人長時間性人員追蹤。

B3. 事件分析與搜尋系統系統---自動化視訊搜尋、戶外異常事件分析、異質相機行動監看。

 

 

經濟部學界科技專案『以視覺為基礎之智慧型環境的建構四年計畫』所發起的「電腦視覺監控產學研聯盟」已於2005年初正式成立。為了加強產業界與學術界的互動與交流,聯盟自2005年一月起每兩個月定期發行一期電子報,提供國內產業界及聯盟會員最新的相關資訊。

本電子報目前所規劃的內容包括:

1.最新動態:公布並報導「電腦視覺監控產學研聯盟」或「影像等相關單位」舉辦的各項技術說明會、技術研討會、企業座談會等相關活動訊息。

2.技術報導:報導電腦視覺監控領域相關研究的現況,並簡介本學界科專計畫的最新研究成果及所獲得的各項專利等。

 

在本期的電子報當中,「最新動態」部分報導2009/9/21~24美國加州安那罕舉行的美國國際安全器材展,另外介紹10/1於福華國際文教會館舉辦的『技術研討暨技術成果移轉說明會』。此外,在「技術報導」方面,本期收集了兩篇文章,分別由台大網媒所施朝欽同學與賴治權同學介紹「攝影機功能異常自我診斷技術」及「視線追蹤」的技術。

 

 

「電腦視覺監控產學研聯盟」乃是由經濟部學界科專「以視覺為基礎之智慧型環境的建構四年計畫」所發起,由前亞洲大學校長蔡文祥(現交通大學講座教授)所主持,在背後支持此一聯盟的研發團隊幾乎囊括了國內電腦視覺研究領域之菁英教授,其研究人員遍佈台大、清大、交大、中央及中央研究院等第一流學術機構。每一位計畫主持人皆累積多年有關影像處理與圖形識別等研究的經驗,亦曾多次協助業界研發各項影像處理與圖形識別系統,輔導產業研發、創新之經驗豐富 。

本聯盟除發行電子報外,也提供聯盟成員包括人才招募、技術諮詢、企業資訊推廣等多項 服務(請點選並下載電子報左方目錄中的「會員招募簡章及報名表」,並參閱其中有關本聯盟之服務內容說明)。竭誠歡迎產業界相關企業加入聯盟,藉由大家共同的努力,提昇國內此一產業的技術水準。

為了方便會員的聯繫,我們於新竹特設一服務窗口:

新竹窗口

交通大學電腦視覺中心 蔡淑均 小姐

TEL:03-5731970    FAX:03-5131205

E-mail : rayis@mail.nctu.edu.tw