 1. Photogrammetry 純粹照片轉模型,手機拍攝或是單眼相機、或是影片 原理是攝影機追蹤 -> 點雲資訊 -> 自動建模 -> 材質投影 電腦上可用 Metashape(極高精度,貴【貴】)、Meshroom(免費開源,中高精度)、Reality Capture(Epic新的,沒用過) 手機上可用Polycam(低經度、快速方便)、Reality Scan(免費、超難用但精度較高) 2. 2. LiDar光達掃描 要IPhone三眼怪才能用,透過深度感測器資訊快速掃場景 經度較低,但非常快速 手機上Polycam可用LiDar # 免費 ## 3d scanner app * 前半段是介紹影片,後半段是講怎麼進Blender處理掃出來的模型 {%youtube IN1nyU_CL7A %} * 裡面都在講基本操作 * 後面有些碰撞跟合成的快速介紹 * 免費 * 目前這個的定位有點像是掃描空間的,有試著調高精解析度,但以小東西來說它組成型的三角面又太大了,照不到細節 * 有支援光達(後鏡頭)/點雲(後鏡頭)/深度(前鏡頭)這三種掃描方式,深度有張數限制 * 介面用起來還算不錯,可以調整預覽的方式跟貼圖精細度,目前還沒輸出過 * 實測  * 輸出格式 * GLTF: 安卓 AR用的 * OBJ * GLB: For Web * USDZ: Iphone AR用的 * STL * PLY:高密度點雲 * LAS: 地理深度顯色的點雲 * DAE: Sketchup * FBX ## Scaniverse * 免費 * 感應的時候可以設定光達的感測距離 * 好像是用點雲下去運算模型  * 沒辦法單獨切換光達模式或是照片合成模式,只能感測完再選輸出精度,沒有顯示模型的點面數 * Speed:快速預覽 * Area:適合房間跟空間 * Detail:適合小東西 * 支援輸出格式 * FBX: 很多3D軟體和遊戲引擎都吃 * OBJ * GLB: For Web * USDZ: Iphone AR用的 * STL * PLY:高密度點雲 * LAS: 地理深度顯色的點雲 * OBJ掃出來的 * 貼圖  * Mesh  ## WiDAR SCAN * Logo改了 * 光達跟照片合成 光達跟照片模式可以切換手動拍攝或是錄影 * 基本使用免費,但比較沒那麼好用  * 輸出格式 * FBX * OBJ * GLTF * STL * USDZ * PLY * XYZ ## Side Scape * 需要辦會員才能輸出,但是是免費的 * 光達,但只能輸出點雲 * 空間特化型  * 輸出格式 * PLY * E57 * 免費版有尺寸限制,檔案大小只能到180MB,點雲如果掃比較密的話很容易就到這個額度了 ## Every Point * 一定要辦會員才能用 * 空間特化型 * 介面有點怪,第一次看會忽視模式可以切換,但好像這個最好 * ==EveryPoint LiDAR Fusion== - 光達+照片一起辨識的點雲,可以設定Voxel的尺寸跟掃描的深度 Dense 3D point cloud generated by combining data from Apple's ARKit, LiDAR, and EveryPoint's photogrammetry algorithms. By leveraging real-time processing and advanced computer vision, the generated point clouds are cleaner and more accurate than what can be achieved using ARKit alone. * ==ARKit LiDAR Points== - 光達辨識的點雲,掃描點的密度 Dense 3D point cloud captured using depth data from the LiDAR sensor and Apple's ARKit. New points will be added to the scan as the device is moved around. * ==ARKit LiDAR Mesh== - 可以設定光達辨識的Mesh Triangle mesh based on the LiDAR-enabled 3D geometry that Apple's ARKit generates as it internally reconstructs the scene. The mesh will update in real-time as the device moves and the scene changes (both when objects are added and removed from the scene). * 輸出格式 * PLY * E57 # 免費試用/付費 ## Metascan * 光達/照片合成,好像可以免費分析五個模型 * 按照App教學 光達:短時間掃描大尺規的空間模型 照片:擬真的物件模型 * 照片合成 有上材質的話效果還可以,最低數量要20張,這樣是拍50張合成的結果  * 目前免費版只支援USDZ(Apple自己的格式,可進Blender轉),輸出其他格式得課金  ## Polycam(寶麗來) * 光達跟照片合成 * 光達跟照片模式可以切換手動拍攝或是錄影 * 免費只能輸出GLTB,其他都得付費 * 免費分析五個模型,可藉由解裡面的任務去增加免費額度   {%youtube 0F3uFeqFOOw %} # 匯入點雲的方式 * https://www.youtube.com/watch?v=oIfQ1REDkdw * Add-on:Import-Export Stanford PLY format * 有上材質的話,要用Cycle才算得出來 * 先丟個材質給他 * 幫他開個Geometry Node 串個 Mesh to Points Node * The **Mesh to Points** node generates a point cloud from a mesh * 應該是掃出來是點雲(Point Cloud)匯出格式為PLY,進Blender打開以後變成Mesh,再用幾何節點還原回點雲 * Radius可以調整點雲每個點呈現的大小(最好一開始調小一點,不然電腦一次吃幾百萬點會哀嚎) * Set Material,把新建的材質匯進去  * 打開Evaluate的視窗點雲的欄位,可以看到各項資訊位置/大小/Col,Col是給點雲用的顏色,所以部會在用Vertex Color的欄位出現  * 在材質的節點上接個Attribute,手動輸入Col就會有了  * 現階段的Ply匯入好像有點問題 所以要到Github上面找檔案覆蓋過去 https://github.com/TombstoneTumbleweedArt/import-ply-as-verts/tree/916bbd32af17916ee7cd6c9a6256abc8f62b68a6  Cㄏ ## Blender-Addon-Photgrammetry-Importer [Installation Instructions — Blender-Addon-Photgrammetry-Importer 2.0.0 documentation (blender-addon-photogrammetry-importer.readthedocs.io)](https://blender-addon-photogrammetry-importer.readthedocs.io/en/latest/installation.html#download-the-addon-for-blender-2-80-or-newer)
×
Sign in
Email
Password
Forgot password
or
Sign in via Google
Sign in via Facebook
Sign in via X(Twitter)
Sign in via GitHub
Sign in via Dropbox
Sign in with Wallet
Wallet (
)
Connect another wallet
Continue with a different method
New to HackMD?
Sign up
By signing in, you agree to our
terms of service
.