从 LLM 到 Agent Skill打通底层逻辑

\"LLM\" 语言文本模型 \"Token\" LLM的输出输出,输入的Token通常比输出Token要贵好几倍,看不同厂商。 \"Context\" 上下文 \"Prompt\" 提示词,现在的大部分的产品,不仅仅是个LLM了,基本都进化成Agent了。进化的核心就是因为prompt,在Agent上prompt其实更多是定义Agent本身的能力以及约束,这部分就是system prompt,用户输入你好,背后
从 LLM 到 Agent Skill打通底层逻辑