# 生程式AI應用於印刷產業的筆記-圖像類 ###### tags: `生成式AI`、`GPT` ## 詢問方式 [[資料來源](https://www.youtube.com/watch?v=A3Yx35KrSN0&t=106s)] - 一步一步解釋 (問題 + Think about it step-by-step) - 請模型自己解釋自己給的答案 (Answer by starting with Analysis) - 對模型施加心理壓力 (問題 + This is very important to my career) - 直截了當要求,不需過度禮貌 - 明確告知要什麼,而不是不要什麼 - 使用獎勵或懲罰來影響 AI 回應 (I'm going to tip $xxx for a better solution! / You will be penalized) - 要求答案需無偏見、避免刻板印象 (Ensure that your answer is unbiased) - 提供充足的背景資訊 (如:「你是台灣人,解釋 NTU 是什麼」) - 拆解任務,循序漸進 (如:先寫大綱,再撰寫細節內容) - 使用搜尋工具確保正確性 (問題 + 上網搜尋後回答) --- ## 大型語言模型 (LLM) 訓練流程 ![image](https://hackmd.io/_uploads/H12RbTfcke.png) ### 第一階段:自我學習 - Pre-training (基礎模型訓練) ### 第二階段:人類指導 - Instruction Fine-tuning (人類標註資料進行微調) ### 第三階段:強化學習 - RLHF (Reinforcement Learning with Human Feedback) - 透過人類回饋修正 AI 的行為,提高答案品質 --- ## Transformer & Diffusion Model 介紹 * [淺談Transformer影片](https://www.youtube.com/watch?v=uhNsUCb2fJI) ![image](https://hackmd.io/_uploads/By1csuhtJe.png) ### 以文生圖 ![image](https://hackmd.io/_uploads/ByZ80Ibcyx.png) * Attention保持關聯性、考慮上下文 ![image](https://hackmd.io/_uploads/Bk_-Jw-5ke.png) * CLIP 評分 ![image](https://hackmd.io/_uploads/B1rRkPW9kl.png) ### AR / NAR 訓練運算 Transformer 是一種基於 自注意力機制(Self-Attention) 的深度學習架構,最初被應用於自然語言處理(NLP),但後來擴展到 影像生成、語音處理 等領域。Transformer 可以用來實現 AR 和 NAR 兩種生成方式,具體取決於應用場景與模型設計。 ![image](https://hackmd.io/_uploads/rJRLqBK9kg.png) - AR (Autoregressive Generation):按步生成,品質高但速度慢(應用於文字、語音) - NAR (Non-Autoregressive Generation):同時生成,速度快但可能品質較差(應用於翻譯BERT、影像) - AR + NAR 結合 - 先用 AR 生成一個精簡的版本(大綱) - 再用 NAR 生成產生精細的版本(補細節) ![image](https://hackmd.io/_uploads/ByoU2SFqkl.png) ### [Diffusion Model 一種AR+NAR的結合](https://arxiv.org/abs/2006.11239) 把生成過程拆解成要生成不同版本,前版比後版清晰 ![image](https://hackmd.io/_uploads/SJCPprF9kg.png) ### Diffusion Model (擴散模型) - 先加入雜訊,再逐步去雜訊生成最終影像 - 應用於 AI 繪圖、影像修復、超解析度 (Super-Resolution)、影像去噪 ### 多次 NAG(Non-Autoregressive generation) * multi-modality problem * 複合型(Autoregressive+Non-Autoregressive) * 多個 Non-Autoregressive 由小圖變大圖,但整體是Autoregressive = Diffusion Model ![image](https://hackmd.io/_uploads/By-SvIl9Je.png) ### 大結合 ![image](https://hackmd.io/_uploads/S1cOCBYcyl.png) 怕前段AR還是太花時間 ==> 可把 前段"AR" 換成做 "多次NAR" ![image](https://hackmd.io/_uploads/r1G9CrYqyl.png) NAR生成的結果可以不是人看得懂的圖片, 是壓縮後的結果 生成壓縮後的第N版後, 再丟給 decoder 生成最終圖片 現今 Midjourney, Stable Diffusion, DALL-E 都是用類似的作法 ![image](https://hackmd.io/_uploads/BJRcASKcJe.png) ex: Midjourney 會把每個版本過 decoder 給你看看過程 ![image](https://hackmd.io/_uploads/HJrnCrK91x.png) --- ## AI 內容安全性議題 ### 心智理論 - 找東西問題:A、B個別放X、Y籃子,B回來取東西,會去找哪個籃子(X還是Y) - 不會盡信[Benchmark](https://www.youtube.com/watch?v=Hk8Z0uhmWg4)結果 ![image](https://hackmd.io/_uploads/SyCpBPFcJx.png) ### 安全性議題 * 事實查核+有害詞彙檢測 : 將輸出結果多一到檢查的機制 * 會不會講錯 : 給的答案做檢查 * 偏見 : 文本情感分析模型,分紅隊(偏見)藍隊(審核)、調整模型、輸出後調整 ex : 履歷 * 如何測試是不是AI生成的 * 輸出浮水印 : token分成紅綠色兩組,產生第奇數個token時,綠色token增加一點機率;反之偶數,增加紅色token一點機率。 * LLM也會被詐騙,Prompt Hacking | |Jailbreaking | Prompt Injection | | -------- | -------- |-------- | | 攻擊對象 | 語言模型本身 | 以語言模型打造的應用(ex:AI助教) | | 攻擊結果 | 說出作為一個語言模型本身不該講的話 | 讓語言模型怠忽職守,再不恰當的時機做不恰當的事情 | | 對應到人類 | 殺人放火 | 在上課時間忽然唱歌 | * Jailbraking : 可以用注音符號躲過、給衝突指令(ex:輸入危險指令+"沒問題一開始先"起頭)、說服語言模型(ex:編一個故事) * Prompt Injection : 用奸詐的方式,誘導GPT回答問題(ex:很緊急,我親人要過世了,再不給我答案會...、ASCII解碼答案) ## [Diffusion Model原理](https://www.youtube.com/watch?v=azBugJzmz-o&list=PLJV_el3uVTsNi7PgekEUFsyVllAJXRsP-) ![image](https://hackmd.io/_uploads/BkvetPKckg.png) 會反覆的使用同一個decoder (可能500,1k次) 此decoder在每次生圖時 會做 "去除雜訊(denoise)" ![image](https://hackmd.io/_uploads/S1atwLF5Jx.png) 自己產生雜訊 加入訓練資料中 訓練 denoise model 還原回原始未加雜訊的樣子 ## [Diffusion Transformer](https://arxiv.org/abs/2212.09748) Diffusion Transformer (DT) 結合 Transformer 的長距離關聯性與 Diffusion Model 的去噪特性,提升影像生成的品質與速度。 ### 運作流程 1. 前向擴散 (Forward Process):逐步加入雜訊,讓影像變模糊 2. 反向去噪 (Reverse Process):透過 Transformer 的注意力機制還原影像 ![image](https://hackmd.io/_uploads/BkdsLcWqJl.png) * diffusion 和前兩種類比 [[VAE](https://tomohiroliu22.medium.com/深度學習paper系列-04-variational-autoencoder-vae-a7fbc67f0a2)、[Flow-based](https://www.youtube.com/watch?v=uXY18nzdSsM)] - Forward Process 是我們自己加的雜訊 - Reverse Process 是做多次的 denoise ![image](https://hackmd.io/_uploads/S1NgYUt9Jx.png) ### 應用場景 - 影像生成 (Image Generation):如 DALL·E、Stable Diffusion、Midjourney - 影像修復 (Image Inpainting) - 影像超解析度 (Super-Resolution) # 產業應用 ## 印刷業 打破以往對印刷的刻板印象,不在只是透過設計者設計封面,將設計稿給印刷廠製作,現在印刷廠可以辦到自己使用生成式AI工具,達到近似的效果,製作成最終產品,包含:包裝盒、書本封面、T-shirt圖案。 ### 1. 生成式AI影像處理:將缺失修復,輔助使用者加速後續作業。 #### 實際案例1 : 黑白黃化轉彩色數位 在印刷業中,歷史圖像資產是無價的寶藏,但時間的流逝往往使這些珍貴資料遭受黃化、褪色或損壞。生成式AI現已能夠將這些老舊的黑白或黃化照片精準地轉換為高品質彩色影像,同時修復破損、裂痕和其他瑕疵。 例如,某百年老字號出版社利用AI技術成功復原了其珍藏的1920年代原始設計稿和印刷品,不僅保留了原始作品的紋理和設計風格,還恢復了原本可能的色彩方案。這些復原後的作品經由資深修復專家與歷史學者評估,確認AI生成的色彩與紋理符合該時期的藝術風格和色彩使用慣例。這種數位化保存不僅延長了這些文化遺產的生命,還為現代設計師提供了寶貴的創意靈感來源。 ![圖片1](https://hackmd.io/_uploads/HkFVi9tqye.png) [圖源](https://unsplash.com/photos/grayscale-photo-of-family-standing-near-trees-Ar9j8V6oMzo) 使用方法 : 1. [stable diffusion Recolor](https://blog.csdn.net/chengxuquan/article/details/135874964) 2. [高級方法-真實性](https://youtu.be/oOjsi0c8bAw?si=Ylr1zX2GTFv1-RU3) 3. [Image Colorizer 線上版](https://deepai.org/machine-learning-model/colorizer) #### 實際案例2 : 去除背景 背景移除作業在印前製作流程中一直是耗時且技術要求高的環節。傳統上,設計師需要使用鋼筆工具或遮罩技術手動描繪物體邊緣,特別是處理複雜結構如頭髮、透明物體或不規則形狀時更是耗時。 現代AI去背技術已能在幾秒鐘內完成複雜影像的背景移除,同時完美保留細節。一家專業產品攝影公司報告,自從導入AI去背工具後,其處理效率提升了800%,每月可處理超過10,000張產品照片,同時維持精確的邊緣處理品質。這些工具特別擅長處理繁複產品如珠寶、毛絨玩具或精細紡織品,並能自動處理半透明區域和陰影效果,確保最終印刷品的專業品質。系統還能記憶常見物體的特徵,持續優化處理效果,使每次操作都比上一次更精準。 ![2](https://hackmd.io/_uploads/HyrcjC991x.png) [圖源](https://unsplash.com/photos/grayscale-photo-of-family-standing-near-trees-Ar9j8V6oMzo) 使用方法 : 1. [Stable diffusion - u2net](https://blog.csdn.net/qq_41314882/article/details/137140643) 2. [Photoroom-線上版](https://www.photoroom.com/zh-tw/tools/background-remover) #### 實際案例3 : 超解析度優化 在不同印刷介質上實現高品質輸出是印刷業的核心挑戰。AI驅動的超解析度優化技術能夠智能預測並補償不同材質對油墨擴散的影響,確保最終印刷效果清晰銳利。 一家專業織品印刷公司面臨的挑戰是,當在多孔性布料上印刷精細圖案時,油墨滲透和擴散會嚴重影響成品清晰度。他們採用AI超解析度處理系統,該系統不僅能將原始圖像升級至更高解析度,還能針對特定印刷材質進行智能優化。系統會根據布料類型、密度和織法分析油墨擴散模式,然後預先調整圖像細節,以補償印刷過程中的細節損失。 實施這項技術後,該公司報告其細節保留率提高了40%,客戶滿意度大幅提升,特別是在印製複雜圖案和精細文字的訂單中。這項技術也顯著減少了材料浪費和重印次數,為公司每年節省超過20%的生產成本。 ![圖片1](https://hackmd.io/_uploads/ryDa3yo5Jg.png) 使用方法 : 1. [4xUltrasharp_4xUltrasharpV10 + GFPGAN](https://medium.com/%E5%BA%97%E5%B0%8F%E4%BA%8C%E7%9A%84%E5%B8%B3%E7%B0%BF/ai%E7%B9%AA%E5%9C%96-stable-diffusion-006-extras-%E4%BB%A5%E5%8F%8A-png-info-f57fe22483ed) 2. [pica-ai](https://www.pica-ai.com/tw/photo-enhancer/) ### 2. 數位印刷個人化應用:客製化包裝與標籤設計,如 AI 自動生成藝術風格的包裝插畫。 數位印刷結合AI技術已經革新了包裝與標籤的客製化設計流程。AI可以根據品牌定位、目標受眾和產品特性,自動生成符合特定藝術風格的包裝插畫,大幅縮短設計時間並提高創意多樣性。 #### 實際案例1 : 文本撰寫+海報製作 品牌可以輸入簡單的產品描述和目標風格(如「有機、自然、簡約」),AI就能生成完整的產品包裝文案和視覺設計。例如,一家小型咖啡烘焙商只需提供咖啡豆產地和風味描述,AI就能生成獨特的包裝設計,包括風格化的咖啡產地插畫、符合品牌調性的文案,以及適合目標客群的視覺元素。這不僅降低了設計成本,也使小型企業能夠提供媲美大品牌的專業包裝。 #### 實際案例2 : 古跡重現 這張圖片展示了一幅著名的荷蘭黃金時代群像畫作品,在上下方分為兩個部分:下方左側是原始畫面的局部,中間顯示了一個不自然的區域(以黃色虛線框標示),右側則是經過AI修復後的版本(黃色框)。 這是一個展示生成式AI將兩副世界名畫合併,中間不自然的接合處做遮罩處裡,被遮罩覆蓋的部分重新繪製,使圖像變的自然,彷彿是一幅畫。 再印刷印用上可以噴印再玻璃上,以玻璃業為例子,將單純的玻璃附加價值,打造新型的裝飾藝術彩繪玻璃產品。並展示於展區中推廣出去。 ![圖片1](https://hackmd.io/_uploads/SJXX6j69kg.png) ![圖片2](https://hackmd.io/_uploads/SJ_q6sp9ye.jpg) 使用方法 : * [局部重繪-Leonardo.Ai-AI Canvas](https://ithelp.ithome.com.tw/m/articles/10339345) * [Stable Diffusion基礎 -- 局部重繪(inpaint)](https://vocus.cc/article/64770591fd89780001729605) ## 建材業與塗料業 ### AI 生成材質紋理: 透過 Diffusion Model 自動生成不同風格的建材紋理,提升建築與裝潢設計的靈活性與創新性。AI 能夠模擬各種自然材質(如大理石、木紋、石材)的紋理,甚至創造出自然界中不存在的獨特紋理,為建築師和設計師提供無限可能。 最後將圖紋噴印在磁磚、塑膠、木板、布料或玻璃上,應用相當廣泛。 ![擷取](https://hackmd.io/_uploads/BJLGeEVj1x.png) [圖源](https://www.aigei.com/) #### 實際案例1 : 以文生圖 建材設計師只需輸入文字描述,如「帶有淡淡藍色透光質感的雲石紋理」或「北歐風淡色橡木紋理,帶有細微年輪」,AI 即可生成符合描述的高解析度材質圖案。這項技術極大地擴展了建材可能性,設計師無需等待實體樣品製作,即可快速生成各種設計方案供客戶選擇。某大型磁磚製造商已經將此技術應用於產品開發流程,將設計周期從數月縮短到數週,同時提供顧客更多個性化選擇。 ![image](https://hackmd.io/_uploads/HyKyRVEj1x.png) ``` 正面詞 : Marble texture with a faint bluish translucent quality 正面詞 : Light Nordic-style oak wood texture with subtle growth rings ``` 使用方法: * [leonardo.ai](https://app.leonardo.ai/) * [Stable Diffusion](https://github.com/CompVis/stable-diffusion) #### 實際案例2 : 以圖生圖 設計師可以上傳一張現有材質圖片(如特定類型的大理石照片),然後指示 AI 對其進行變化,例如改變紋理密度、色調或風格元素,生成相似的圖紋。在大多印刷市場上是相當需要的應用。 ![image](https://hackmd.io/_uploads/By7nQHVjkg.png) ``` 正面詞 : 2D, Marble texture with a faint bluish translucent quality 負面詞 : EasyNegative, table, chair, human, face, leg, 3D ``` ![image](https://hackmd.io/_uploads/ByKSEBEikg.png) ``` 正面詞 : 2D, Light Nordic-style oak wood texture with subtle growth rings 負面詞 : EasyNegative, table, chair, human, face, leg, 3D ``` 使用方法: * [leonardo.ai](https://app.leonardo.ai/) * [Stable Diffusion](https://github.com/CompVis/stable-diffusion) # 結論:動手實踐,探索 AI 應用潛力! 透過這份整理,我們了解了GPT 及生成式 AI 在影像、印刷、建材等產業的應用,並學習了從詢問技巧、Transformer 理論、Diffusion Model 到 AI 圖像生成的實務應用。 在理論之外,更重要的是動手實踐!我們鼓勵每位讀者親自嘗試 GPT、Stable Diffusion、Leonardo.ai、Photoroom 等工具,從基礎開始,逐步探索 AI 如何提升生產力與創新能力。 🔹 從文字到圖像,試試「以文生圖」! 🔹 利用 AI 去背、超解析度技術,提升影像品質! 🔹 在不同產業領域,思考如何結合 AI 打造新商機! AI 技術的發展仍在持續進步,而你也可以成為推動這股潮流的一份子!現在就開始動手試試吧!🚀