輪郭取得に失敗していた映像の$U^2$-netでの取得結果を見ると ![](https://i.imgur.com/wwrTiHt.png) ![](https://i.imgur.com/bBJp74x.png) ![](https://i.imgur.com/CRO25WC.png) ![](https://i.imgur.com/fWkUEbW.png) のようになっていて、オクルージョン発生前から、シャツの柄で若干取得漏れのようなものが発生しているように見える $U^2$-netを用いたものとして衣服の学習を行ったものがある https://github.com/levindabhi/cloth-segmentation ので、こちらの方も用いて見ましたが ![](https://i.imgur.com/otGKfVT.png) ![](https://i.imgur.com/QYzwF32.png) 上のように表示された 色々試行錯誤していたが、あまりうまくいかなかったので 城戸さんの手法を改めて見直した 城戸さんの手法では、予め入力されている背景の情報から輪郭取得をし、背景の情報を輪郭の更新に用いているので、そこを参考にしようと考えた FashionAIを用いた衣服特徴点の方を、最初に取得したものを追従するようにするというふうにしているが、輪郭の方も最初のフレームで得られた輪郭情報・背景情報を参考に輪郭の更新ができないかを検討しています 問題点:処理の問題点を具体的にしてほしい いわゆる静止画だと上手くいく、動画だと上手くいかない→何故なのか 動画のフォーマットで結果が悪くなってる可能性 服の領域の尤度というのが出ている 画像からどういうふうに輪郭が検出できてないのかがよくわからない 具体的な情報があると問題点がわかりやすいのかなと思っています