IT博客汇
  • 首页
  • 精华
  • 技术
  • 设计
  • 资讯
  • 扯淡
  • 权利声明
  • 登录 注册

    大模型的温度?解读Temperature

    wireless_com发表于 2025-06-22 20:25:16
    love 0
    在连续的下一个单词生成中,gpt-2 给出一个初始输入句子,并以自回归的方式预测下一个最可能的单词。一旦下一个单词被预测,它就会被输出,这个过程就停止了,意思是一次只生成一个单词. 根据模型的学习关联,基于最高概率选择单词,并且除非使用新的输入重复该过程,否则不会发生进一步的预测。LLM 中的温度参数控制生成文本的随机性。当比较 0.5 和 10.0 两种温度下的输出时,我们观察到在 0.5 的温度下生成的文本更连贯,而在 10.0 的温度下,输出变得越来越不连贯,人类读者越来越难以理解。


沪ICP备19023445号-2号
友情链接