## 08/08(0.8.53) - Dock_QA 新增stream參數,若stream=True,則回傳值為generator (見 [get_response](/8NLNO8WXTl-nQYuaX4fpBQ)) - ***get_response*** 和 ***ask_self*** 新增history_messages參數來傳遞聊天紀錄訊息 (見[get_response](/8NLNO8WXTl-nQYuaX4fpBQ)) - ***get_response*** 可傳入dbs物件,避免重複load chromadb (見 [get_response](/8NLNO8WXTl-nQYuaX4fpBQ)) - prompt_format_type參數新增"chat_gpt"和"chat_mistral",用來傳遞非str type輸入給語言模型 如([{"role":current_role, "content":prompt}]), (見 [提示格式](/Vp67i5BESgqiivM0rDwaSg)) - 輔助函數新增 call_model, call_batch_model, call_stream_model (見 [輔助函數](/lHhXX2uHQV2A-ZaIe1b04A)) - 輔助函數新增 self-rag (見 [輔助函數](/lHhXX2uHQV2A-ZaIe1b04A)) - 語言模型物件(LLM)和嵌入模型物件(Embeddings)可直接傳入***Doc_QA***, ***Eval***,和 ***Summary***,避免重複宣告(見 [語言模型](/LUSKfUEuQFixj4D0GID7hA) [嵌入模型](/HXjSvXBCT5S4Z-YeyZ5YHg)) - 內建 FAST API,可使用 "akasha api (--port port --host host --workers num_of_workers) 啟動 (見 [FAST API](/VId-qyYTTIefVsC1lEzs8g)) ## 05/29(0.8.34) - 新增stream output [流輸出](/hIVt_3ncRJ-p6dkzlsRdOg) ## 05/09(0.8.28) - 新增語言模型類別: ***gptq*** - ***remote*** 語言模型類別更新為streaming print out - 基於參數 ***doc_path*** 的輸入類型,您可以使用 ***get_response*** 來運行 ***ask_whole_file*** 和 ***ask_self***(若 ***doc_path*** 是單一文件路徑,則運行 ***ask_whole_file***;如果 ***doc_path*** 是一段或多段文字,則運行 ***ask_self***)。 - ***search type auto*** 改為 ***auto*** 和 ***auto_rerank***,差別為在找不到足夠相似的文件段落時,是否使用rerank模型 - ***Doc_QA*** 新增 ***rerun_ask_agent*** 功能,可更改prompt並重新運行 ask_agent。 - ***Eval create_questionset***添加參考文件名稱到產生的問題中。 ## 04/26(0.8.25) - 新增windows使用者透過WSL安裝ubuntu和anaconda 的使用說明。 - dev-ui image 不再使用ccchang0518/akasha-dev-ui 改用 ccchang0518/akasha-lab:0.6 ## 04/17 (0.8.25) - 在summary中添加參數 **consecutive_merge_failures** 以防止需要摘要段落持續無法縮減。 - 在summary中加入進度條。(請注意,**map_reduce** 方法的進度條僅為估計。) - 在helper module中,新增 **call_translator** 和 **call_JSON_formatter** 的函數。這些函數有助於利用 LLM 進行翻譯並將輸出格式化為 JSON 格式。 - OpenAI 和 Hugging Face 文本生成模型的標準輸出(stdout)改為即時流模式。 ## 04/11 (0.8.24) * -參數**questionset_path**:不再使用參數questionset_path,改用questionset_file ## 04/11 (0.8.24) - 新增參數 **keep_logs**如果為True會儲存每次執行的資料和結果,預設為False - 預設不會安裝llama-cpp-python套件,若想使用llama-cpp模型,請使用 pip install akasha-terminal[llama-cpp]安裝 ## 04/10 (0.8.23) - **HUGGINGFACEHUB_API_TOKEN**:不再使用環境變數 HUGGINGFACEHUB_API_TOKEN, 使用HF_TOKEN匯入 key ## 03/27 (0.8.23) - **Summary:** Summary新增選項auto_translate將摘要翻譯成目標語言, [summary](/dj61dkBGR36lsS_g9wHV0A) - **summarize_articles:** Summary新增summarize_articles函數,將str或list做摘要 - **language:** 在akasha.format中新增語言對照表 ## 03/22 (0.8.21) - **agent module:** 新增代理模組,可以自定義tools和agents, [代理](/NUtfQRO4R4KnWa3zyfXFaQ) - **add document format:** 新增可讀取文件類別.pptx .md ## 03/08 (0.8.20) - **search bm25:** 在 search_type中, 新增 bm25選項, [文件搜尋](/9Bhsju1sRBeV3Zo5ONRgcw) - **search auto:** 在 search_type中, 新增 auto選項, [文件搜尋](/9Bhsju1sRBeV3Zo5ONRgcw) - **Doc_QA ask_agent:** 在akasha.Doc_QA中, 新增ask_agent,使用self-ask prompting回答較為複雜的問題, [ask_agent](/KtTLhkw8QyGgxodi7LakTw) ## 02/26 (0.8.19) - **JSON_formatter:** 在 akasha.prompts, 新增 JSON_formatter_list 和 JSON_formatter_dict, [JSON格式](/YxL00--HR7ajUAp4E_r0hw) - **topK:** 不再使用參數topK,使用max_doc_len來決定參考文件的選取上限。 - **use_rerank:** 新增use_rerank參數,在文件相似度搜尋完之後使用rerank模型更精準排序文件與使用者問題的相關性,預設False。 - **topic_questionset:** akasha.eval中新增topic_questionset,用以產生特定主題的測試問題集。