為面試工研院 AI 工程師職位所設計的展示專案。 建置完整的 RAG(Retrieval-Augmented Generation)醫療問答系統, 驗證將 LLM 對接專業知識庫以降低幻覺、提升回答可靠度的工程能力。
選用 Qdrant 作為向量資料庫,相較於輕量方案,Qdrant 支援 metadata 過濾與條件檢索, 能在向量相似度之外加上科別、文件類型等結構化條件,大幅提升檢索精準度。 生產級的架構也讓系統具備從原型直接走向部署的能力。
醫療文件的段落切分直接影響檢索品質。Chunk 太大導致檢索結果失焦、夾帶無關內容; chunk 太小則丟失上下文脈絡。針對醫療文件的特性(章節結構、術語密度), 設計了兼顧語意完整性與檢索效率的切分策略。
並非所有問題都需要最強的模型。簡單的術語查詢走輕量模型以降低成本與延遲, 需要推理的複雜問題則路由至高階模型確保回答品質。 這套路由邏輯讓系統在成本與品質之間取得平衡。
RAG 的核心價值是「讓 AI 說話有依據」—— 這個架構的威力不限於醫療領域。製造業同樣有大量 SOP、規格書、檢驗標準需要快速查詢, 客服場景有產品手冊與 FAQ,法務有合約條款與法規彙編。
同一套 RAG 管線,只要替換知識庫就能遷移到任何垂直領域。 這正是這個架構最有價值的地方——它不是為單一場景打造的工具, 而是一個具備產業遷移能力的通用方案。 從製造業的「標準化流程」思維出發,這套系統的設計本身就是可複製、可擴展的。