个人技术分享

文章目录


转载自:https://www.promptingguide.ai/zh/introduction/settings


使用提示词时,您会通过 API 或直接与大语言模型进行交互。你可以通过配置一些参数以获得不同的提示结果。调整这些设置对于提高响应的可靠性非常重要,你可能需要进行一些实验才能找出适合您的用例的正确设置。以下是使用不同LLM提供程序时会遇到的常见设置:

Temperature:简单来说,temperature 的参数值越小,模型就会返回结果 越确定;参数值调高,返回结果越随机。
也就是说这可能会带来更多样化或更具创造性的产出。我们目前也在增加其他可能 token 的权重。
在实际应用方面,对于质量保障(QA)等任务,我们可以设置更低的 temperature 值,以促使模型基于事实返回更真实和简洁的结果。
对于诗歌生成或其他创造性任务,你可以适当调高 temperature 参数值。

Top_p:同样,使用 top_p(与 temperature 一起称为核采样的技术),可以用来控制模型 返回结果的真实性
参数值越低,答案越准确和接近事实。
如果你想要更多样化的答案,就把参数值调高一些。