在这个案例中,聊天中的每个用户 prompt 都只是你希望得到文本解答的问题。在上面的 System Prompt 示例中,任务被定义为仅使用特定的文本进行问答,并指示 LLM 以 {“Question”: “Answer”} 的格式进行响应。在一组聊天中,每一次你都要提供一个新的 prompt,System Prompts 的作用就像是一个 LLM 会自动应用的过滤器。现在,每个用户 prompt 中都既包含执行问答所基于的文本,也包含所要回答的问题。这三个术语,而且很多时候它们的意思似乎差不多。