Posted inNEWS
Score Before You Speak:透過品質分數強化對話生成的人格一致性
Persona一致性挑戰 在生成式AI領域中,Persona-Based Dialogue Generation 是邁向具備人設對話能力的關鍵里程碑。然而,現有對話數據多半匱乏多元人物設定,導致大型語言模型(LLM)難以在實際應用中兼顧人格一致性與回應品質。根據 arXiv:2508.06886v1(2025)所示,當前方法多以單純語義相似度或額外對抗訓練提升一致性,但往往犧牲流暢度或大幅增加模型歧義。 SBS架構核心原理 最新提出的 Score-Before-Speaking(SBS)框架,將「回應生成」與「品質評分」統一於同一步驟學習。其創新在於:1. 使用名詞替換(noun-based substitution)對原始回應進行增強,並以語義相似度分數(semantic similarity score)作為品質代理;2. 在訓練階段,模型同時學習輸出文字與對應分數,將品質條件化至內部參數。此設計可使 million 到 billion 級別參數模型,均捕捉到多維度人格一致性光譜(Spectrum of Persona Consistency)。 後端效能調校要點 引入分數化條件後的訓練,對計算資源與記憶體帶來額外開銷。依據官方基準測試,SBS 在千萬參數模型上僅增加約5%的訓練時間,在十億參數模型上亦不超過8%(參考 Google T5 白皮書 2023)。建議採用分布式微服務架構(Microservices)搭配 Horovod 或…