热门角色不仅是灵感来源,更是你的效率助手。通过精挑细选的角色提示词,你可以快速生成高质量内容、提升创作灵感,并找到最契合你需求的解决方案。让创作更轻松,让价值更直接!
我们根据不同用户需求,持续更新角色库,让你总能找到合适的灵感入口。
| 项目 | 当前模型 orion-text-2.1 | 目标模型 orion-text-3.0-instruct | 迁移/适配策略 |
|---|---|---|---|
| 调用风格 | 可能支持单一 prompt 字段 | 倾向 messages(system/user/assistant)式 Instruct | 将 system_prompt 映射到 system 消息;将旧模板v1映射为 user 消息;保留 stop |
| tokenizer | 未明确(推测 v2 或 v3 前期版本) | v3(已在 compat 指定) | 显式启用 compat.tokenizer="v3",对齐分词统计与 max_tokens |
| temperature | 0.3 | 0.3 | 直接沿用;在 D1 质量评估中校准一致性 |
| top_p | 0.8 | 0.8 | 直接沿用;禁用与 top_k 冲突的并行设定(如存在) |
| max_tokens | 1024 | 1024 | 直接沿用;确认 3.0-instruct 的上下文窗口与计费单位,避免截断 |
| system_prompt | “保持客观、结构化回答;兼容旧提示模板v1。” | 作为 system 消息 | 要求在 messages[0] 使用 role=system |
| stop | [""] | [""] | 确认目标模型未保留 作为内部保留符;若冲突则改为 application-level 截断 |
| 输出风格 | 自由生成 | Instruct 风格(更遵循 system 与 user 指令) | 预计更稳定遵循指令;对回归集评估一致性 |
| 接口返回 | JSON(需确认字段名:id, choices, usage 等) | JSON(同上,字段可能扩展) | 对齐字段解析器;将未知字段做向前兼容处理 |
| 流式输出 | 需确认 | 需确认(多为 SSE/分片) | 若使用流式,验证分片 delta 与 stop 截断交互 |
| 函数/工具调用 | 需确认 | 可能支持(需验证) | 若未用到,可禁用;若需要,新增空安全适配层 |
| 速率限制/配额 | 需确认 | 需确认(可能不同) | D2阶段压测,监控429/限流重试策略 |
| 错误码/重试 | 2xx/4xx/5xx | 2xx/4xx/5xx(语义可能细化) | 构建错误码兼容表与重试策略(幂等) |
| 成本/时延 | 需确认 | 可能不同 | D1 记录p50/p95延迟与Token成本;设定预算阈值 |
备注:表中“需确认/需验证”项在“兼容性检查清单”中给出具体验证方法。
必测(上线前即刻阻断项)
建议测
阶段总览(来自计划):D1评估 → D2小流量 → D3全量;回滚门槛:10分钟内失败率>2%回退
A. 预备与参数固化
B. D1 评估(影子/灰度不出用户)
C. D2 小流量(线上可见,逐步放量)
D. D3 全量
E. 回滚执行(满足策略时立刻生效)
A. 接口与格式
B. 提示对齐与结构化输出
C. 稳定性与错误码
D. 性能与成本
E. 流式(如使用)
F. 回滚演练
——
实施提示
| 项目 | 当前模型 orion-text-3.0-instruct | 目标模型 aurora-text-3.1 | 差异与处理策略 |
|---|---|---|---|
| 部署模式 | shadow(影子流量) | shadow(影子流量) | 保持一致,镜像10%请求至目标模型,保证响应不回传用户端 |
| 流量比例 | 10% | 10% | 通过流量镜像器采样10%请求;确保会话粘性与采样一致 |
| 评估指标 | BLEU、偏见率、延迟P95 | 同 | 统一指标计算口径与采样集合,避免数据漂移 |
| 评估数据集 | 客服多轮对话v2 | 同 | 先进行离线对齐评估,再上线影子流量 |
| 随机种子 | 42 | 42(若支持) | 若 aurora 不支持固定 seed,则设置低温度或关闭采样以近似可复现 |
| Guardrails | safety=strict;ban=个人敏感信息 | 同 | 在入/出站均启用敏感信息检测与脱敏;目标模型额外启用后置拦截 |
| 调度窗口 | 14:00-17:00 | 14:00-17:00 | 指定时区(建议Asia/Shanghai);超窗自动停用影子流量 |
| 回滚策略 | 指标不优立即停用 | 同 | 采用连续监测+显著性检验,触发阈值即自动撤回 |
| API 路由/协议 | 假设:/v1/chat/completions(JSON,messages[]) | 假设:/v1/chat.generate 或 /v2/chat(JSON,messages[]/tools) | 通过能力探针自动发现端点与模式;若 schema 不同,使用适配器转换 |
| 消息格式 | messages.role in {system,user,assistant} | 可能支持 {system,user,assistant,tool} | 适配器过滤/映射 tool 调用;确保日志一致 |
| 输出模式 | choices[0].message.content | 可能为 output.text 或 choices[].message | 统一抽取成 content 字段;保留原始响应于审计日志 |
| 流式输出 | 可能支持 SSE | 可能支持 SSE | 影子模式默认禁用流式,避免混淆;离线另外测试流式 |
| Token 限制 | 待探测(例如 128k) | 待探测(例如 200k) | 通过探针记录上限;超限时在影子侧截断或滑窗 |
| 采样参数 | temperature/top_p/presence_penalty | 可能为 temperature/top_p/typical_p | 参数映射:保留共同子集,禁用未知参数或给出合理默认 |
| JSON模式 | 可能支持 response_format=json | 可能要求 strict JSON schema | 影子评估阶段统一文本模式;JSON模式单独验收 |
| 速率限制 | X rpm/tpm | Y rpm/tpm | 设置影子并发上限与退避策略,防止限流告警 |
| 日志/追踪 | trace_id、会话ID | 同 | 在镜像请求透传同一 trace_id,便于对齐比较 |
待确认项(上线前自动化探针填充):
协议与接口
功能与参数
性能与资源
安全与合规
观测与评估
回滚与调度
种子与确定性
上下文窗口差异
限流与成本突增
SSE 与客户端混淆
指标口径不一致
Guardrails 差异
调度窗口/时区误配
数据合规
接口与协议
参数与功能 5) 种子/温度
安全与合规 7) PII 输出阻断
评估指标口径 9) BLEU 计算一致性
性能与稳定 11) 延迟分布
回滚机制 13) 指标不优回滚
采样一致性 15) 会话粘性
附:实施所需自动化要点(示例伪配置)
流量镜像
调度
回滚阈值
监控采集
说明
| 项目 | 当前模型:orion-text-3.0-instruct | 目标模型:mercury-text-8k | 备注/状态 |
|---|---|---|---|
| 主要用途 | 指令对话(instruct) | 通用对话/补全(8k上下文) | mercury-text-8k名称暗示8k上下文,需厂商确认 |
| 上下文窗口 | 待验证 | 8k(待验证) | 用于路由阈值设置 |
| 接口风格 | 待验证(messages或prompt) | 待验证(messages或prompt) | 需统一成内部规范 |
| 响应结构 | 待验证(choices[0].message或text) | 待验证 | 影响解析器 |
| 流式SSE | 待验证 | 待验证 | 需一致性验证 |
| 工具/函数调用 | 待验证 | 待验证 | 如无则设为不适用 |
| JSON模式 | 待验证 | 待验证 | 如需结构化输出需验证 |
| 速率限制 | 待验证 | 待验证 | 影响节流与重试 |
| 成本计量 | cost/1k 已纳管 | 待验证(计价口径) | 计费口径需统一(含输入/输出) |
| 健康检查 | /v1/ping(路由层) | 需支持/ping | 确认各后端均可健康检查 |
| 路由策略 | latency-first | 继承 | 需配合熔断与超时 |
| 当前路由规则 | ctx<=2000→mercury;ctx>2000→orion | 目标:尽量在其max_ctx内命中mercury | 2000阈值是保守金丝雀策略 |
| 兜底模型 | nebula-text-2.0 | 作为统一fallback | 需验证兼容性与最低能力 |
| 监控项 | QPS、超时率、cost/1k | 同步纳管 | 建议加:P95/P99延迟、错误率、路由命中率 |
阶段0:能力探测与参数解析(自动化脚本)
阶段1:适配层与请求规范化
阶段2:路由与防护
阶段3:金丝雀与逐步放量
阶段4:最终切换与收敛
阶段5:配置样例(请在验证后落地)
回滚方案(明确触发条件与动作)
功能与接口
路由与上下文
流式与超时
错误与fallback
成本与一致性
示例请求模板(路由入口)
说明
将“模型升级/对比实验/动态选择”等高频需求标准化与自动化:1) 迅速识别旧模型与新模型的关键差异并给出清晰结论;2) 生成一步步可执行的替换方案与时间表;3) 预先识别风险,提供可落地的回退路径;4) 输出可直接用于联调与验收的检查清单与测试用例;5) 以更低沟通与试错成本,保障稳定上线并提升整体迭代效率。
以周为单位完成模型升级决策:获取差异清单、实施步骤与风险方案,明确预算与上线窗口。
按生成的步骤与检查项执行切换,快速在测试与生产环境落地,并保留一键回滚与记录。
搭建多模型对比与实验切换,沉淀可复用模板,产出结论与报告,支撑选型与性能优化。
将模板生成的提示词复制粘贴到您常用的 Chat 应用(如 ChatGPT、Claude 等),即可直接对话使用,无需额外开发。适合个人快速体验和轻量使用场景。
把提示词模板转化为 API,您的程序可任意修改模板参数,通过接口直接调用,轻松实现自动化与批量处理。适合开发者集成与业务系统嵌入。
在 MCP client 中配置对应的 server 地址,让您的 AI 应用自动调用提示词模板。适合高级用户和团队协作,让提示词在不同 AI 工具间无缝衔接。
一次支付永久解锁,全站资源与持续更新;商业项目无限次使用