--- title: 葛如鈞 tags: AI --- {%hackmd Cp-6sY4yRqqGLZgF0zM__Q %} [TOC] # 葛如鈞 - [投影片](https://drive.google.com/file/d/1nyhcOI4B1iHv0x8cGzwOZwcLpvFeBi2P/view?usp=share_link) https://www.facebook.com/dAAAb - what is human will? - 要活下去、持續成長 ## 背景說明 - 去年年底用過 ChatGPT 後,認為數位內容已死([Post](https://reurl.cc/9VlnXY) - 之後就開始跟吳姓網友用 CGPT 產文筆戰XDDD - 要站在風口浪尖上、還是躺平(By iKala Sega)? - 從佛法中起了靈感,眼耳鼻舌身意法(presented by emoji) - 只剩下舌頭(?) - 比起 retail 和 food,市場還是很小 - 人要活下去,一定要吃,必然剛需 - 所以看到了 Project ShenNongShi ## 神農氏計畫 empower chef, not replace 賣醬料的集團,很注意餐飲在社會上的意義 把廚師的智慧不只是數位典藏,而是智慧典藏 而且可以解決餐飲人力短缺問題 chefGPT:generative chef's intelligence - 用動補裝紀錄中式廚師料理過程 - achieve 手路 with AI - preserve, collect and assist chefs in developing great skills - "Large Tshiu-loo Model" - 製作食物 vs 吃食物的 vs ? 三者關係 - (might be)第一個完整記錄中式餐飲的團隊 <!-- 訂餐時的 loading animation 能不能變成廚師 avater 煮菜的畫面 --> 結合科技、廚師、餐飲的團隊 - sweetgreen - SPYCE 表演性 年底前,會邀請廚師留下更多紀錄 Nvidia omniverse ### 開發過程 - 開發過程發現 CGPT 擅長將動作翻譯成機器語言,藉以控制手臂。 - motion diffusion - 找有 VR/AR 經驗的人來開發 ### Mission - vision to text - text to recipe - recipe to movement - movement 2 meal - vision to meal ## 立 flag 預言 - 會有越來越多類人型 Bot 的產生 - 以後到餐廳就會有類人型 bot 煮菜 ## Q&A - GPT 燒了幾千萬,神農氏打算燒多少? - ~~加入就知道了~~ - 可能也會有其他團隊合作 - 手路怎麼體現在味覺上?怎麼試味道? - 僅管口味很主觀 - 但可以搜集更多數據去分析 - 紀錄的資料應該包含食物的狀態嗎?(煮飯需要因爲食材而改變動作嗎,還是只要同樣的動作就一定可以做出一樣的菜) - 所有紀錄的資料,都必須把食材做特殊紀錄和處理,所以不會只紀錄手路 - 理想很大,數據很多,但也有很多機會 - 選擇人體去建模的原因是什麼呢?定位鍋子角度和鍋鏟的力道之類的會不會相對簡單,也能滿足“手路”的概念 - 虛擬化的需求 - 有做過測試,有些挑戰,把裝置裝在台子上或鍋子上,但還沒有完美方法 - 目前資料還夠,不夠的話還會繼續增加 - 機器人的靈活度可以支撐複雜的炒菜動作嗎 - 需要調整和組合 - omniverse 也可以模擬化學的變化? - 目前先跳過化學變化,會從物理條件去推斷 - 本 talk 跟 genAI 的關係? - genAI 的 pre-train model 有一天也會影響到機器運作 like motion diffusion model - 有什麼挑戰? - 很多,所以很多頁 slides 都是糊的 - 結合智慧典藏挑戰很大,不過我們不做別人也會做 - omniverse 虛擬小當家什麼時候辦? - 等 nvidia speaker,問他 <!-- 共筆前先把這行往下推,騰出空行方便大家接手打字 -->