# 2022/05/24 面談 リアルタイムでできるような形式にしようと思っていたが ステップで分ける際にどういう風に機械に判別させれば良いかに躓いている 深層学習でも服の種類を判別することはできても、折り畳み段階を判別するとなるとまた別の話 また別で輪郭を抽出するにしてもU^2-Netを用いた場合常時輪郭を抽出すると処理が遅くなってしまうだけでなく 単純にリアルタイム処理のマルチスレッド形式にするのが自分ではよくわからない感じになってしまっている 城戸さんの研究では折り畳み動作が終わったら写真(スクリーンショット)を撮影することで折り畳み段階を判別していて また自前の方でもカメラから撮影してその写真からU^2-netを用いた輪郭抽出するというようなアルゴリズムは仮で組んでるので 配置された服の画像を撮影する ↓ U^2-netで輪郭抽出・服の種類判別 ↓ 慣性主軸に応じた折り畳み線を表示する ↓ 折り畳み完了したら画像を撮影 ↓ U^2-netで輪郭抽出しつつ次の折り畳みステップへ移行 のようなフローでいくのがいいんですかね? とりあえず下の一連の動作で折り畳み線が各ステップで表示されるようにしたいです ![](https://i.imgur.com/oyjKJ6Y.jpg =300x) ![](https://i.imgur.com/YfuAEt7.jpg =300x) ![](https://i.imgur.com/AqO1720.jpg =300x) ![](https://i.imgur.com/Yz5JzkV.jpg =300x) ![](https://i.imgur.com/0zu0f3i.jpg =300x) ![](https://i.imgur.com/dXbuAHF.jpg =300x) 最初のフレームで輪郭抽出とキーポイント抽出を行い、その後は追跡する形