發表文章

目前顯示的是有「pose estimation」標籤的文章

精選文章

COCO Dataset: 介紹、下載、取得方式、標註資料格式(key points)

圖片
在訓練模型時,需要大量的訓練資料,這時就會需要許多公開的數據集,在動作偵測(pose estimation)方面,<strong>標注資料是人體關節</strong>(keypoint)的數據集很多,COCO 就是其中一個。 <br /><br /> 而且在 github 上找 code 的時候,因為數據集龐大的關係,所以並不會把訓練資料一併上傳至 repository 裡,因此需要自行去找到數據集下載。 <br /><br /> 廢話不多說,開始吧。 <br /><br /><br /> > coco 首頁 找到 coco的網站 ,點開上排導覽列的Dataset,進入Download頁面,會有很多連結: 中間 是圖片下載,都有標示年份、用途、資料集大小 右邊是標註的資料,這個是訓練的答案,答案有很多種類,keypoint跟segmentation都有, coco dataset存放是用json格式 。 左邊是coco dataset自製for拿圖片對應的答案的python package(github) > coco 資料集下載處 用facebook家的DensePose舉例,他自己有標註資料,但是用的圖片還是coco dataset的。 怎麼看 github 的 code 用的是哪個dataset的? 這個會需要你去翻一下reopsitory,以DensePose來說,像是 INSTALL.md 和 get_DensePose_COCO.sh 都可以知道訓練集是使用coco 2014的dataset。 如果是單純用2014年的coco dataset做訓練,要下載的有: 2014 Train images [83K/13GB] 2014 Val images [41K/6GB] 2014 Train/Val annotaions [241MB] 如果是要用dense pose的dataset,則只需下載圖片,annotation要另外下載: 2014 Train images [83K/13GB] 2014 Val images [41K/6GB] ...

OCHuman Dataset 數據集 bbox 儲存格式

圖片
Occluded Human Dataset bounding box(bbox)儲存跟COCO dataset不一樣: OCHuman是直接儲存兩組座標: 頂點座標 , 對象頂點座標 COCO則是儲存一組座標和bounding box的寬長: 左下座標 , 寬長 證據 OCHuman Api 裡頭Demo用來畫bounding box的function是opencv的cv2.rectangle OCHumanApi/ochumanApi/vis.py cv2.rectangle(影像, 頂點座標, 對向頂點座標, 顏色, 線條寬度) 所以舉例[333,175,513,600]是由(333,175)跟(513,600)兩組座標組成。 cv2.rectangle(影像, ( 333 , 175 ), ( 513 , 600 ), 顏色, 線條寬度) bbox 格式對照 ochuman dataset [xmin, ymin, xmax, ymax] coco dataset [x, y, width, height] 參考 Python 與 OpenCV 加入線條圖案與文字教學 by G. T. Wang