IT博客汇
首页
精华
技术
设计
资讯
扯淡
权利声明
登录
注册
大模型的温度?解读Temperature
wireless_com
发表于
2025-06-22 20:25:16
love
0
在连续的下一个单词生成中,gpt-2 给出一个初始输入句子,并以自回归的方式预测下一个最可能的单词。一旦下一个单词被预测,它就会被输出,这个过程就停止了,意思是一次只生成一个单词. 根据模型的学习关联,基于最高概率选择单词,并且除非使用新的输入重复该过程,否则不会发生进一步的预测。LLM 中的温度参数控制生成文本的随机性。当比较 0.5 和 10.0 两种温度下的输出时,我们观察到在 0.5 的温度下生成的文本更连贯,而在 10.0 的温度下,输出变得越来越不连贯,人类读者越来越难以理解。