まず、撮影画像についてU^2-netで前処理を行う ![](https://i.imgur.com/t8xdzZv.jpg =250x)→![](https://i.imgur.com/WapvGgq.png =250x) U^2-netでは背景を除去する処理を行う この画像にマスク処理を行って下の画像を得ている ![](https://i.imgur.com/fjeVV0n.png =250x) が、このマスク処理の部分はU^2-netの処理で一緒にやったほうが良いと思うので 後でアルゴリズムに変更を行っておこうと思っている 次にfashional-key-points-detectionに改変を加えたものを用いて、慣性主軸を取得する ![](https://i.imgur.com/GUbwN8m.png =250x) ここの処理の際に、肩の特徴点を基に腕を除いた服の幅を求めておく (ズボンの場合は腰の特徴点を基に求める) 従来手法では、服の幅$w$を基に横折りの折り目を決定 ![](https://i.imgur.com/3qUbxFT.png) なので、求めた慣性主軸と平行な折り目線を肩幅から求めてみようと思っている 肩を畳んだ後は長方形の形状になると思われる ここの形状はfashional-key-points-detectionでは検出できないと思われる 一応やってみたが ![](https://i.imgur.com/Ufe9G3O.png =250x)![](https://i.imgur.com/SbtImHv.png =250x) 底部の方が検出できていないので、まあできていないということにしておく なので、ここまできたら検出した物体の高さから縦折りの折り目を決定するという感じで考えている ![](https://i.imgur.com/nujsEx2.png) 現状、ailiaのモデルを用いたものはpythonのコードでやっていて U^2-netのモデル ↓ fashional-key-points-detectionのモデル とやっているのだが この後のモデルをどう搭載するかというのが若干悩んでいる 前々からやっていた、輪郭を抽出して色々処理を行っていたモデルはC++でやっていたのと そもそもプログラミングはC++メインでやっていたので、このpythonのモデルで カメラから読み込み→モデル間で受け渡し の一連の流れを実装するのに色々勉強するための時間がかかってしまいそう、という感じです・・・ 一言でいうと 何を優先したらいいか~っていうのがいまいちわかってない感じです とりあえず折り目のアルゴリズムを作るというのを優先したほうがいいでしょうか? pythonとC++を一緒に使えるかどうかをある程度確認 できそうであれば、自分の好きな感じにやっていただければ