# 20201013 中澤 [実時間非接触非装着型3次元人物姿勢推定法に関する一考察](https://search.ieice.org/bin/summary.php?id=j83-d2_5_1305) 二値化を行った画像に対して重心Gを求めるアルゴリズム、findContoursを使用して輪郭線を求めるアルゴリズムを作成した ![](https://i.imgur.com/LfqEUGe.png)![](https://i.imgur.com/OFJSAdd.png) 慣性主軸と輪郭線の上方側での交点を点Pとし、そこから反時計回りに輪郭線を動く点を点A{$x_t(s),y_t(s)$}とする この時の点Aから重心Gに向かうベクトルを$g_t(s)$、点Aから点Pに向かうベクトルを$p_t(s)$とした時に輪郭線の2次元位置情報を1価関数に変換した曲線$L_t(s)$が求められる $L_t(s) = \sqrt{p_t(s)^2 + g_t(s)^2}$ ![](https://i.imgur.com/ufo3Pgk.png) 上記の曲線で極大値となるsの値における点Aが指だと考えられるので、その点にポインタを刺した画像が下の画像となる ![](https://i.imgur.com/69j7BgO.png) 現状重心を求めるアルゴリズムが画像によって上手くいかない場合がある ![](https://i.imgur.com/JpbAXk3.png) ![](https://i.imgur.com/8tBReMI.png) のでその点について、式が間違っていないか、手法が間違っていないかのチェックを行い改善することと、 指先について求めた際にどのようにクリッピングを行うかについての考察を行っていこうと思っている 白いところの画素を全部足し算して