想一想每次在使用deepseek-r1的时候,它生成回答总是一个光标顺序地向后生成字符。虽然现在这个光标移动的方式已经被证明是个纯纯的特效了,但是在早期,文本生成模型真的就是这样工作的。这种工作模式被称作“Next-Word Prediction”。比如,你问一句:“How are you?”,我立马知道要丝滑三连“I’m fine, thank you, and you?”,对不?对于机器来讲,这个操作是怎样的呢?