以 Stream LLM Completion 打造即時回應的聊天機器人
在前一章中,我們已透過 LLM Completion 節點
建立了具備 AI 回應能力的聊天機器人。本章將進一步介紹更進階的節點 — Stream LLM Completion Message Processor
,讓機器人的回應方式更加流暢,像「正在輸入文字」一樣逐字呈現。
那麼 LLM Completion
和 Stream LLM Completion
有什麼不同呢?
🧠 LLM Completion v.s. Stream LLM Completion
在 Asgard 中,你可以使用兩種不同的方式來取得 AI 模型的回應結果:LLM Completion 與 Streaming LLM Completion。兩者的目標相同,都是讓機器人根據使用者輸入產生自然語言回覆,但在使用體驗與流程設計上有明顯差異:
LLM Completion | Stream LLM Completion | |
---|---|---|
回應方式 | 一次性輸出整段內容 | 像「打字機」逐字輸出 |
節點需求 | 需搭配 Push Message 節點輸出回應內容 | 已內建訊息輸出功能 |
Output Schema | 建議填寫,方便後續節點引用 | 不需填寫 |
使用情境 | 適合處理完整結構化回應、條件邏輯等 | 適合提升對話自然感、即時互動體驗 |
流程控制(Await) | 無等待選項,流程接續按邏輯執行 | 可設定是否等待輸出完成再執行下一步(Await: true/false ) |
✅ 使用情境
- AI 回覆內容(如條件判斷、寫入資料庫)需進一步處理 → LLM Completion + Output Schema
- 希望回應自然、即時,提升使用者體驗 → Stream LLM Completion