深度學(xué)習(xí)中的圖像分割
深度學(xué)習(xí)可以學(xué)習(xí)視覺輸入的模式,以預(yù)測(cè)組成圖像的對(duì)象類。用于圖像處理的主要深度學(xué)習(xí)架構(gòu)是卷積神經(jīng)網(wǎng)絡(luò)(CNN),或者是特定的CNN框架,如AlexNet、VGG、Inception和ResNet。計(jì)算機(jī)視覺的深度學(xué)習(xí)模型通常在專門的圖形處理單元(GPU)上訓(xùn)練和執(zhí)行,以減少計(jì)算時(shí)間。
圖像分割
圖像分割是計(jì)算機(jī)視覺中的一個(gè)關(guān)鍵過程。它包括將視覺輸入分割成片段以簡(jiǎn)化圖像分析。片段表示目標(biāo)或目標(biāo)的一部分,并由像素集或“超像素”組成。圖像分割將像素組織成更大的部分,消除了將單個(gè)像素作為觀察單位的需要。
圖像分析有三個(gè)層次
分類:將整幅圖片分成若干類別
目標(biāo)檢測(cè):檢測(cè)圖像中的目標(biāo)并在其周圍畫一個(gè)矩形
分割:識(shí)別圖像的部分,并理解它們屬于什么對(duì)象。分割是進(jìn)行目標(biāo)檢測(cè)和分類的基礎(chǔ)
語(yǔ)義分割 實(shí)例分割
在分割時(shí),依據(jù)分割結(jié)果,有兩個(gè)粒度級(jí)別
語(yǔ)義分割:將圖像中的所有像素劃分為有意義的對(duì)象類。這些類是“語(yǔ)義上可解釋的”,并對(duì)應(yīng)于現(xiàn)實(shí)世界的類別。例如,你可以將與貓相關(guān)的所有像素分離出來,并將它們涂成綠色。這也被稱為dense預(yù)測(cè),因?yàn)樗A(yù)測(cè)了每個(gè)像素的含義。
實(shí)例分割- 標(biāo)識(shí)圖像中每個(gè)對(duì)象的每個(gè)實(shí)例。它與語(yǔ)義分割的不同之處在于它不是對(duì)每個(gè)像素進(jìn)行分類。
傳統(tǒng)的圖像分割方法
還有一些過去常用的圖像分割技術(shù),但效率不如深度學(xué)習(xí)技術(shù),因?yàn)樗鼈兪褂脟?yán)格的算法,需要人工干預(yù)和專業(yè)知識(shí)。這些包括
閾值:將圖像分割為前景和背景。指定的閾值將像素分為兩個(gè)級(jí)別之一,以隔離對(duì)象。閾值化將灰度圖像轉(zhuǎn)換為二值圖像或?qū)⒉噬珗D像的較亮和較暗像素進(jìn)行區(qū)分。
K-means聚類:算法識(shí)別數(shù)據(jù)中的組,變量K表示組的數(shù)量。該算法根據(jù)特征相似性將每個(gè)數(shù)據(jù)點(diǎn)(或像素)分配到其中一組。聚類不是分析預(yù)定義的組,而是迭代地工作,從而有機(jī)地形成組。
基于直方圖的圖像分割:使用直方圖根據(jù)“灰度”對(duì)像素進(jìn)行分組。簡(jiǎn)單的圖像由一個(gè)對(duì)象和一個(gè)背景組成。背景通常是一個(gè)灰度級(jí),是較大的實(shí)體。因此,一個(gè)較大的峰值代表了直方圖中的背景灰度。一個(gè)較小的峰值代表這個(gè)物體,這是另一個(gè)灰色級(jí)別。
邊緣檢測(cè):識(shí)別亮度的急劇變化或不連續(xù)的地方。邊緣檢測(cè)通常包括將不連續(xù)點(diǎn)排列成曲線線段或邊緣。例如,一塊紅色和一塊藍(lán)色之間的邊界。
深度學(xué)習(xí)如何助力圖像分割方法
現(xiàn)代圖像分割技術(shù)以深度學(xué)習(xí)技術(shù)為動(dòng)力。
下面是幾種用于分割的深度學(xué)習(xí)架構(gòu)
使用CNN進(jìn)行圖像分割,是將圖像的patch作為輸入輸入給卷積神經(jīng)網(wǎng)絡(luò),卷積神經(jīng)網(wǎng)絡(luò)對(duì)像素進(jìn)行標(biāo)記。CNN不能一次處理整個(gè)圖像。它掃描圖像,每次看一個(gè)由幾個(gè)像素組成的小“濾鏡”,直到它映射出整個(gè)圖像。
傳統(tǒng)的cnn網(wǎng)絡(luò)具有全連接的層,不能處理不同的輸入大小。FCNs使用卷積層來處理不同大小的輸入,可以工作得更快。最終的輸出層具有較大的感受野,對(duì)應(yīng)于圖像的高度和寬度,而通道的數(shù)量對(duì)應(yīng)于類的數(shù)量。卷積層對(duì)每個(gè)像素進(jìn)行分類,以確定圖像的上下文,包括目標(biāo)的位置。
集成學(xué)習(xí):將兩個(gè)或兩個(gè)以上相關(guān)分析模型的結(jié)果合成為單個(gè)。集成學(xué)習(xí)可以提高預(yù)測(cè)精度,減少泛化誤差。這樣就可以對(duì)圖像進(jìn)行精確的分類和分割。通過集成學(xué)習(xí)嘗試生成一組弱的基礎(chǔ)學(xué)習(xí)器,對(duì)圖像的部分進(jìn)行分類,并組合它們的輸出,而不是試圖創(chuàng)建一個(gè)單一的最優(yōu)學(xué)習(xí)者。
DeepLab:使用DeepLab的一個(gè)主要?jiǎng)訖C(jī)是在幫助控制信號(hào)抽取的同時(shí)執(zhí)行圖像分割 —— 減少樣本的數(shù)量和網(wǎng)絡(luò)必須處理的數(shù)據(jù)量。另一個(gè)動(dòng)機(jī)是啟用多尺度上下文特征學(xué)習(xí) —— 從不同尺度的圖像中聚合特征。DeepLab使用ImageNet預(yù)訓(xùn)練的ResNet進(jìn)行特征提取。DeepLab使用空洞卷積而不是規(guī)則的卷積。每個(gè)卷積的不同擴(kuò)張率使ResNet塊能夠捕獲多尺度的上下文信息。
DeepLab由三個(gè)部分組成
Atrous convolutions— 使用一個(gè)因子,可以擴(kuò)展或收縮卷積濾波器的視場(chǎng)。
ResNet— 微軟的深度卷積網(wǎng)絡(luò)(DCNN)。它提供了一個(gè)框架,可以在保持性能的同時(shí)訓(xùn)練數(shù)千個(gè)層。ResNet強(qiáng)大的表征能力促進(jìn)了計(jì)算機(jī)視覺應(yīng)用的發(fā)展,如物體檢測(cè)和人臉識(shí)別。
Atrous spatial pyramid pooling (ASPP)— 提供多尺度信息。它使用一組具有不同擴(kuò)展率的復(fù)雜函數(shù)來捕獲大范圍的上下文。ASPP還使用全局平均池(GAP)來合并圖像級(jí)特征并添加全局上下文信息。
SegNet neural network:一種基于深度編碼器和解碼器的架構(gòu),也稱為語(yǔ)義像素分割。它包括對(duì)輸入圖像進(jìn)行低維編碼,然后在解碼器中利用方向不變性能力恢復(fù)圖像。然后在解碼器端生成一個(gè)分割圖像。
審核編輯:湯梓紅
-
神經(jīng)網(wǎng)絡(luò)
+關(guān)注
關(guān)注
42文章
4779瀏覽量
101165 -
gpu
+關(guān)注
關(guān)注
28文章
4774瀏覽量
129350 -
計(jì)算機(jī)
+關(guān)注
關(guān)注
19文章
7536瀏覽量
88638 -
圖像分割
+關(guān)注
關(guān)注
4文章
182瀏覽量
18046 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5513瀏覽量
121544
原文標(biāo)題:深度學(xué)習(xí)中的圖像分割
文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論