
1. Photogrammetry
純粹照片轉模型,手機拍攝或是單眼相機、或是影片
原理是攝影機追蹤 -> 點雲資訊 -> 自動建模 -> 材質投影
電腦上可用 Metashape(極高精度,貴【貴】)、Meshroom(免費開源,中高精度)、Reality Capture(Epic新的,沒用過)
手機上可用Polycam(低經度、快速方便)、Reality Scan(免費、超難用但精度較高)
2. 2. LiDar光達掃描
要IPhone三眼怪才能用,透過深度感測器資訊快速掃場景 經度較低,但非常快速 手機上Polycam可用LiDar
# 免費
## 3d scanner app
* 前半段是介紹影片,後半段是講怎麼進Blender處理掃出來的模型
{%youtube IN1nyU_CL7A %}
* 裡面都在講基本操作
* 後面有些碰撞跟合成的快速介紹
* 免費
* 目前這個的定位有點像是掃描空間的,有試著調高精解析度,但以小東西來說它組成型的三角面又太大了,照不到細節
* 有支援光達(後鏡頭)/點雲(後鏡頭)/深度(前鏡頭)這三種掃描方式,深度有張數限制
* 介面用起來還算不錯,可以調整預覽的方式跟貼圖精細度,目前還沒輸出過
* 實測

* 輸出格式
* GLTF: 安卓 AR用的
* OBJ
* GLB: For Web
* USDZ: Iphone AR用的
* STL
* PLY:高密度點雲
* LAS: 地理深度顯色的點雲
* DAE: Sketchup
* FBX
## Scaniverse
* 免費
* 感應的時候可以設定光達的感測距離
* 好像是用點雲下去運算模型

* 沒辦法單獨切換光達模式或是照片合成模式,只能感測完再選輸出精度,沒有顯示模型的點面數
* Speed:快速預覽
* Area:適合房間跟空間
* Detail:適合小東西
* 支援輸出格式
* FBX: 很多3D軟體和遊戲引擎都吃
* OBJ
* GLB: For Web
* USDZ: Iphone AR用的
* STL
* PLY:高密度點雲
* LAS: 地理深度顯色的點雲
* OBJ掃出來的
* 貼圖

* Mesh

## WiDAR SCAN
* Logo改了
* 光達跟照片合成
光達跟照片模式可以切換手動拍攝或是錄影
* 基本使用免費,但比較沒那麼好用

* 輸出格式
* FBX
* OBJ
* GLTF
* STL
* USDZ
* PLY
* XYZ
## Side Scape
* 需要辦會員才能輸出,但是是免費的
* 光達,但只能輸出點雲
* 空間特化型

* 輸出格式
* PLY
* E57
* 免費版有尺寸限制,檔案大小只能到180MB,點雲如果掃比較密的話很容易就到這個額度了
## Every Point
* 一定要辦會員才能用
* 空間特化型
* 介面有點怪,第一次看會忽視模式可以切換,但好像這個最好
* ==EveryPoint LiDAR Fusion== - 光達+照片一起辨識的點雲,可以設定Voxel的尺寸跟掃描的深度
Dense 3D point cloud generated by combining data from Apple's ARKit, LiDAR, and EveryPoint's photogrammetry algorithms. By leveraging real-time processing and advanced computer vision, the generated point clouds are cleaner and more accurate than what can be achieved using ARKit alone.
* ==ARKit LiDAR Points== - 光達辨識的點雲,掃描點的密度
Dense 3D point cloud captured using depth data from the LiDAR sensor and Apple's ARKit. New points will be added to the scan as the device is moved around.
* ==ARKit LiDAR Mesh== - 可以設定光達辨識的Mesh
Triangle mesh based on the LiDAR-enabled 3D geometry that Apple's ARKit generates as it internally reconstructs the scene. The mesh will update in real-time as the device moves and the scene changes (both when objects are added and removed from the scene).
* 輸出格式
* PLY
* E57
# 免費試用/付費
## Metascan
* 光達/照片合成,好像可以免費分析五個模型
* 按照App教學
光達:短時間掃描大尺規的空間模型
照片:擬真的物件模型
* 照片合成
有上材質的話效果還可以,最低數量要20張,這樣是拍50張合成的結果

* 目前免費版只支援USDZ(Apple自己的格式,可進Blender轉),輸出其他格式得課金

## Polycam(寶麗來)
* 光達跟照片合成
* 光達跟照片模式可以切換手動拍攝或是錄影
* 免費只能輸出GLTB,其他都得付費
* 免費分析五個模型,可藉由解裡面的任務去增加免費額度


{%youtube 0F3uFeqFOOw %}
# 匯入點雲的方式
* https://www.youtube.com/watch?v=oIfQ1REDkdw
* Add-on:Import-Export Stanford PLY format
* 有上材質的話,要用Cycle才算得出來
* 先丟個材質給他
* 幫他開個Geometry Node 串個 Mesh to Points Node
* The **Mesh to Points** node generates a point cloud from a mesh
* 應該是掃出來是點雲(Point Cloud)匯出格式為PLY,進Blender打開以後變成Mesh,再用幾何節點還原回點雲
* Radius可以調整點雲每個點呈現的大小(最好一開始調小一點,不然電腦一次吃幾百萬點會哀嚎)
* Set Material,把新建的材質匯進去

* 打開Evaluate的視窗點雲的欄位,可以看到各項資訊位置/大小/Col,Col是給點雲用的顏色,所以部會在用Vertex Color的欄位出現

* 在材質的節點上接個Attribute,手動輸入Col就會有了

* 現階段的Ply匯入好像有點問題
所以要到Github上面找檔案覆蓋過去
https://github.com/TombstoneTumbleweedArt/import-ply-as-verts/tree/916bbd32af17916ee7cd6c9a6256abc8f62b68a6

Cㄏ
## Blender-Addon-Photgrammetry-Importer
[Installation Instructions — Blender-Addon-Photgrammetry-Importer 2.0.0 documentation (blender-addon-photogrammetry-importer.readthedocs.io)](https://blender-addon-photogrammetry-importer.readthedocs.io/en/latest/installation.html#download-the-addon-for-blender-2-80-or-newer)