與 AR 模型不同,dLLMs 不遵循序列對(duì)數(shù)概(gài )率的(de )順序分解(jiě )。同時(shí),每個(gè) token 的對(duì)數(shù)概率計(jì)算成本也(yě )很(hěn )高,因?yàn)?wéi )解碼過(guò)程中需要多次調(diào)用(yòng )掩碼預(yù)測(cè)(cè )器 f_θ。基(jī )于(yú )此(cǐ ),該研究提出了一個(gè)高效(xiào )的對(duì)數(shù)概率(lǜ )估計(jì)器。
版權(quán)所有 ? 2025 青龍影院 保留所有權(quán)利