项目指导方针设计

3 浏览
0 试用
0 购买
Sep 30, 2025更新

为特定主题或项目列出清晰、实用的指导方针。

示例1

校园垃圾分类项目指导方针(适用于中小学与高校)

1) 明确目标与范围
- 设定三类目标:环保(减量与回收率提升)、教育(学生知识与行为改变)、运营(成本与卫生安全可控)。
- 以“减量优先、分类精准、规范转运、透明公示”为基本原则。
- 覆盖场景:教学楼、办公区、食堂、宿舍、运动场、校门口、活动与考试场景、假期与大型活动。

2) 组建项目团队与职责
- 项目负责人(校级):统筹标准、资源、时间表和评估。
- 后勤/总务:设施配置、清运路线、台账与对接回收处置单位。
- 德育/班主任/年级组:学生教育、班级执行与巡查。
- 学生志愿者与社团:引导、宣传、活动协办、数据协助。
- 保洁与食堂:日常执行、满桶更换、清洗消杀、油水与餐厨处置。
- 宿管与安保:宿舍与夜间时段管理、违规劝导。
- 实验室/校医室(如有):特殊废弃物合规管理与转运对接。

3) 对齐政策与标准
- 查阅并遵循当地生活垃圾分类管理要求与标识规范(常见为四分类:可回收物、厨余/湿垃圾、有害垃圾、其他/干垃圾)。
- 若学校含实验室或医务室,分别遵循危险废物与医疗废物管理规定,独立管理,不得混入生活垃圾体系。
- 与街道/城管/环卫和正规回收与处置单位建立书面对接机制。

4) 统一分类规则与投放指引
- 可回收物:按本地要求投放干净、可再生的纸类、金属、玻璃、塑料、纸盒等;提示尽量沥干、压扁、清洁。
- 厨余/湿垃圾:按本地要求投放果皮菜叶、剩饭菜、骨刺等(以本地清单为准);提示去除外包装、沥干。
- 有害垃圾:电池、灯管、过期药品、含汞温度计、油漆与化学品容器等;设置专用收集点并加锁或看管。
- 其他/干垃圾:难回收、污染物、卫生纸、尘土、烟头等(以本地清单为准)。
- 明确“就近原则、少带液体、先减量后分类”的顺序;若不确定,设置“查询—确认—投放”的可视化指引与咨询渠道。

5) 设施配置与布点
- 采用与本地标准一致的颜色与标识;桶体贴示例图,字体清晰,图例具体。
- 在人流密集处(食堂出口、教学楼入口、电梯/楼梯口、操场出入口、宿舍楼层)设置成组四分类桶;保证显眼、易达、动线顺畅。
- 设置临时分类点与可移动导引牌以应对活动与考试时段高峰。
- 为厨余点配置防渗防漏内袋、密闭桶盖与除味方案;为有害点配置加锁箱。
- 建立校园内暂存点:通风、防雨、防渗、防虫鼠,远离食堂加工区与教学核心区,张贴管理制度与紧急联系人。

6) 运行流程(标准作业程序SOP)
- 投放:张贴一步一图流程(示例对照—去包装—沥干—投放—手部清洁)。
- 巡检:高峰时段安排志愿者/保洁引导与纠偏;错投立刻纠正并记录原因。
- 满桶更换:设定满溢阈值(未达桶沿),优先更换厨余与有异味风险点;更换后登记时间与责任人。
- 清洗消杀:规定周期清洗桶体与周边地面;出现渗漏立即处置。
- 转运:固定路线与时段,避免与学生主流动线冲突;使用带盖、完好运输工具;分类后单独称重、建账。
- 台账:记录每类垃圾重量、污染率(错投比例)、问题点与处理结果。

7) 特殊废弃物与重点场景管理
- 实验室废物(如有):按危险废物规范分类密闭、贴危废标签、建联单、委托有资质单位处置;严禁混入生活垃圾。
- 医疗废物(校医室、卫生站):按医疗废物管理规定专桶专袋、专人专线、专用暂存,定点交接。
- 食堂与餐厨:配置餐厨分拣台、油水分离设备;一次性餐具减量与替代;厨余沥水后称重交接;地面防滑与防虫。
- 宿舍:设置小型回收点(旧衣、废纸、电池);夜间噪音与气味控制;定期清运。
- 考试与活动:临时增设分类点、安排志愿者引导;活动结束清场与数据复盘。

8) 宣传教育与课程融入
- 入学周与学期初开展全员培训;对新教师与保洁人员进行岗前培训与考核。
- 提供“易混品速查表”(如奶茶杯与吸管、外卖盒与汤汁、电池与充电宝等)并在桶旁张贴。
- 在科学、地理、道法、劳动与综合实践课程中嵌入项目式学习(PBL):数据采集、可视化分析与改进建议。
- 在电子屏、公告栏、公号/班群定期发布“本周数据与亮点案例”。

9) 激励与行为引导
- 采用“正确率+参与率+减量率”的综合指标,避免只以重量排名导致投机。
- 班级与宿舍积分、文明班级/绿色寝室评比,与德育考评适度挂钩。
- 使用行为诱导:显眼指路贴、对照示例图、错投提示卡、放慢脚步区标识。
- 对表现突出个人/团队给予证书、志愿时长或校园小权益。

10) 数据监测与持续改进
- 指标:各类垃圾重量、投放正确率、污染率、厨余含水率近似评估、异味投诉、虫害发生、培训覆盖率、设施完好率、回收收益与处置成本。
- 工具:称重记录表或电子台账;问题点热力图;月度/学期报告与公开看板。
- 问题闭环:发现—定位—对策—复查—固化为SOP或培训材料。

11) 预算与采购要点
- 设施:分类桶(耐用、可清洗、与本地标准颜色/标识匹配)、内袋、运输工具、称重设备、暂存点防渗托盘。
- 耗材:清洁消杀用品、除味材料、防虫设备、标识与海报。
- 服务:培训、宣传设计、合规回收与处置费用。
- 预留维护与更换预算;与合规单位签订服务合同,明确称重、结算与责任。

12) 安全与风险管理
- 个人防护:为保洁与食堂人员配备手套、口罩、防滑鞋;制定意外破损、渗漏、锐器伤应急流程。
- 环境控制:厨余与暂存点防渗、防雨、防鼠虫;高温季节增加清运与除味频次。
- 消防安全:禁止在暂存点附近堆放可燃物;电池与充电设备分开管理,防止短路起火。
- 天气与假期:暴雨台风或假期前做清桶与加固,假期中调整清运频次。

13) 实施里程碑(建议)
- 准备期(2–4周):调研、制度与SOP、设施采购与布点、培训材料与标识设计。
- 试点期(4–8周):选择1–2栋教学楼与食堂试点,日报数据,滚动优化。
- 全面推广:分批覆盖全校;建立月度评估与学期总结。
- 固化阶段:将要求写入学生手册、后勤制度与供应商合同;纳入常态化考核。

14) 常见易错点与对策
- 错投高发:在高发点增设更直观示例与专人引导;优化桶位与动线。
- 厨余含水率高:设置沥水装置与“先倒汤后投桶”提示。
- 有害垃圾混入:加锁收集箱、定时回收与集中宣传;班级开展“电池回收周”。
- 宣传一阵风:建立每月一次微培训与数据反馈机制,保持热度。
- 只重视觉不重执行:将巡检与台账纳入保洁与班主任日常考核。

15) 合作与外联
- 与街道、环保社会组织、再生资源企业合作开展讲座、观摩和校园回收日。
- 将分类要求写入食堂与供应商合同(包装减量、可回收材料优先、回收责任)。

16) 成功标准与验收
- 基线对比后,可回收物与厨余垃圾比例提升、污染率显著下降。
- 关键点无明显异味/满溢/虫害,投诉下降。
- 学生正确率与知晓率提升,班级与宿舍参与面广。
- 数据台账完整、可追溯,按时与合规单位交接处置。

提示
- 不同城市的分类名称、颜色与投放清单可能存在差异;如遇与本指引示例不一致,务必以当地政府发布的最新标准为准。
- 涉及实验室危废与医疗废物的处置,请严格执行专业法规与资质要求,独立管理、独立转运,切勿混入生活垃圾系统。

示例2

Guidelines for Machine Learning Experimental Projects

1) Define the problem and hypothesis
- State the task type (classification, regression, ranking, generation, time series, etc.).
- Specify the target variable(s) and input modalities.
- Formulate a testable hypothesis (e.g., “X feature set will improve PR-AUC over baseline by ≥3%”).
- Identify constraints: compute budget, data availability, latency, interpretability, and deadlines.
- Declare success criteria upfront (primary metric, acceptable thresholds).

2) Review prior work and set baselines
- Summarize 3–5 relevant papers or implementations and their metrics on comparable data.
- Choose at least two baselines:
  - A trivial baseline (e.g., majority class, mean regressor).
  - A strong, simple baseline (e.g., regularized linear/logistic model, shallow tree).
- Justify why each baseline is appropriate for your data and metrics.

3) Plan evaluation and data splits
- Keep a final test set untouched until all modeling decisions are complete.
- Choose a split strategy that matches data structure:
  - i.i.d. data: train/validation/test or K-fold cross-validation.
  - Imbalanced classification: use stratified splits.
  - Grouped data (e.g., multiple records per user): use group-aware splits (GroupKFold).
  - Time series: use temporal splits (walk-forward/rolling-origin validation). Do not shuffle across time.
- For small datasets or extensive hyperparameter tuning, use nested cross-validation to avoid optimistic bias.
- Document the exact split method, random seeds, and group/time boundaries.

4) Govern data ethically and legally
- Verify licenses and terms of use for all datasets and pretrained models.
- Remove or protect personally identifiable information (PII). Minimize sensitive attributes unless explicitly needed for fairness analysis.
- If human subjects or sensitive data are involved, follow your institution’s review/approval processes.
- Record data provenance (source, date, version, filters) and maintain a data card.

5) Audit and understand your data
- Compute descriptive statistics: counts, missingness, ranges, class balance.
- Visualize distributions and correlations; identify outliers and duplicates.
- Check for target leakage (features that directly or indirectly reveal the label).
- Define and document handling of missing data (impute within training folds only).

6) Build a leakage-safe preprocessing pipeline
- Fit scalers/encoders/imputers only on training data within each fold/split.
- Apply the fitted transformers to validation/test data without refitting.
- For text/images/audio, apply augmentation only on training data; keep validation/test clean.
- Save pipeline objects and code so the exact steps can be reproduced.

7) Choose models that match the problem and constraints
- Start with interpretable or efficient models; escalate complexity only if needed.
- Justify each model family (e.g., tree ensembles for tabular; CNNs/Transformers for images/text; sequence models for time series).
- Note deployment constraints (e.g., model size, inference time).

8) Design controlled experiments
- Change one factor at a time when possible (model, feature set, loss, augmentation).
- Predefine the hyperparameter search space and budget to avoid “fishing.”
- Use identical data splits and preprocessing across model comparisons.
- Run multiple random seeds for stochastic models; report mean and standard deviation.

9) Tune hyperparameters responsibly
- Use validation data or inner cross-validation only; do not use test data for tuning.
- Pick a search strategy appropriate to budget: grid (small), random (broad), Bayesian/early-stopping methods (efficient).
- Record: search space, sampling strategy, number of trials, time per trial, early-stopping criteria.

10) Select appropriate metrics
- Classification: accuracy (balanced data), precision/recall/F1, ROC-AUC; prefer PR-AUC when classes are highly imbalanced.
- Regression: MAE and RMSE; report both when possible; include R^2 with caution on small samples.
- Ranking/retrieval: MAP, NDCG@k.
- Calibration (if probabilities matter): reliability diagram, Brier score, Expected Calibration Error.
- Define how thresholds are chosen (on validation only) and keep them fixed on the test set.

11) Perform statistical and uncertainty analysis
- Report confidence intervals (e.g., bootstrap for many metrics).
- For paired model comparisons on the same test set:
  - Use McNemar’s test for 0/1 classification errors.
  - Use DeLong’s test for differences in ROC-AUC.
  - Use bootstrap for PR-AUC, MAE/RMSE, or when assumptions are unclear.
- Adjust for multiple comparisons when testing many models (e.g., control false discovery rate).

12) Conduct error analysis
- Inspect confusion matrices and per-class metrics.
- Review representative false positives/negatives or large-error residuals.
- Analyze performance by meaningful subgroups (e.g., demographics, device types); look for disparate impact.
- Trace errors back to data quality issues and feature/model limitations.

13) Run ablations and robustness checks
- Ablate features/modules to identify what truly contributes to performance.
- Stress test with distribution shifts, noise, corruptions, or realistic perturbations.
- Evaluate out-of-distribution performance when relevant; clearly label it.
- Test stability across seeds, data subsamples, and minor preprocessing changes.

14) Address fairness, privacy, and safety
- If sensitive attributes are available, report group-wise metrics and gaps.
- Consider simple mitigations (reweighting, threshold adjustments) and discuss trade-offs.
- Avoid releasing models that could be misused; document intended use and limitations.
- Do not publish sensitive data or inadvertently deanonymize individuals.

15) Ensure reproducibility
- Fix and record random seeds for all libraries; run multiple seeds for results.
- Pin library versions; save an environment file (e.g., requirements.txt, conda env, Dockerfile).
- Enable deterministic operations when feasible and note hardware specifics (CPU/GPU, model of GPU).
- Log data hashes or dataset versions; store train/val/test indices.
- Use an experiment tracker (e.g., MLflow, Weights & Biases) or a clear logging system.

16) Manage compute and efficiency
- Monitor and record training time, memory, and hardware used.
- Use early stopping and learning-rate schedules where appropriate.
- Right-size models; prefer techniques like ensembling only if the benefit justifies the cost.
- Consider mixed precision if supported; verify numerical stability.

17) Document thoroughly
- Maintain a README with how to reproduce results end-to-end.
- Provide a clear repo structure (data/, src/, configs/, experiments/, notebooks/, reports/).
- Include a model card (intended use, metrics, data, limitations) and a datasheet/data card.
- Document all negative results and failed approaches; explain what was learned.

18) Report results transparently
- Present validation and test results separately; keep the test set final and untouched until the end.
- Show averages and variability (mean ± std or confidence intervals) across seeds/folds.
- Include learning curves and key plots (PR/ROC, calibration, residuals).
- State compute budget, number of trials, and any early stopping or pruning.
- Avoid cherry-picking; include all pre-specified comparisons.

19) Collaborate and control versions
- Use version control (Git) with meaningful commit messages.
- Track data and model artifacts with checksums or data versioning tools where possible.
- Assign code reviews and use issue tracking for tasks and bugs.

20) Deliverables checklist (adapt to your course/project)
- Proposal: problem statement, hypothesis, metrics, split plan, risks.
- Midpoint update: baselines, initial results, revised plan.
- Final package: code, environment, data access instructions, trained models (if allowed), report with full methodology, analysis, and limitations.

Common pitfalls to avoid
- Tuning on the test set or peeking at test performance during development.
- Data leakage via preprocessing fit on full data or target-dependent features.
- Reporting single-run results for stochastic training without variability.
- Comparing models on different splits or with different preprocessing.
- Ignoring subgroup performance and model calibration.
- Overclaiming generalization without external or temporally separated validation.

Use this as a step-by-step checklist. At each stage, write down decisions, justify them, and keep artifacts so your work is transparent, reproducible, and educationally valuable.

示例3

以下为“销售新人加速营项目”指导方针。请按步骤规划与执行,并结合企业实际做本地化调整。

一、明确项目目标与成功标准
- 对齐业务目标:将加速营输出与企业的营收、 pipeline 增长、客户获取或续约目标对齐。
- 设定SMART指标:以历史优秀新人的中位水平为基准,设定第30/60/90天关键里程碑(例:完成率、有效会议数、合格机会数、工具使用合规度、知识测验通过率)。
- 采用分层指标:区分前导指标(活动量、触达率、预约数)与结果指标(成交额、转化率)。

二、明确对象与分层路径
- 按角色分轨:SDR/BDR(获客与约见)、AE(商机推进与成交)、AM/CSM(续约与扩展)。
- 按经验分层:零经验、行业转岗、有销售基础三类,设置差异化起点与目标。
- 明确入营条件:完成入职手续、工具开通、阅读并签署合规与保密条款。

三、构建胜任力模型(对齐课程与评估)
- 知识:产品与竞品、行业与客户场景、ICP与买家画像、定价与政策、流程与工具、合规要求。
- 技能:线索挖掘、冷启动触达、需求洞察(如SPIN)、价值陈述、异议处理、谈判与成交、时间与区域管理、书面与口头沟通。
- 心态与习惯:以客户为中心、数据驱动、韧性与复盘、团队协作、诚信合规。

四、教学结构与节奏(建议8周,可压缩/扩展)
- 预热(入营前3天):完成账号开通清单、阅读Playbook v1.0、通过合规与信息安全基础测验(100%)。
- 第1-2周 基础期:产品/行业、销售流程、工具训练(CRM/邮件/拨号/日程)、脚本框架练习、跟听优秀通话。
- 第3-4周 技能期:SPIN/BANT等方法实操、价值呈现演练、异议处理库构建、书面沟通与邮件模板优化、首次客户会议模拟。
- 第5-6周 实战期:带指标上岗(低配额),实盘开发、影随与回放评审、教练一对一纠偏、商机推进策略评审。
- 第7-8周 稳态输出:独立跑流程、复杂情境演练(多角色决策、采购流程)、复盘与最佳实践沉淀、毕业考核与认证。

五、课程模块与学习目标(对齐可测产出)
- 产品与行业:能在3分钟内清晰讲述价值主张与差异点;能基于行业场景做案例化讲解。
- 客户与ICP:能完成目标客户画像与优先级清单;能制定外呼与邮件话术的A/B版本。
- 销售流程与方法:能使用标准销售阶段定义推进商机;能用SPIN完成一轮有效需求探索。
- 工具与数据:能100%合规使用CRM,确保字段完整率与更新时间<=24小时;会用数据看板做自我管理。
- 合规与伦理:理解并遵守适用法律法规与公司制度;出现疑问时能主动咨询合规部门。
- 软技能:能够进行结构化陈述、积极倾听、提问与复述;能以SBI模型给出或接收反馈。

六、教学方法与活动设计
- 采用“讲授≤20% + 演练≥50% + 实战≥30%”的比例。
- 使用翻转课堂:课前微课与资料学习,课堂集中练习与反馈。
- 设计高频角色扮演:冷拨、首会、异议处理、价格谈判、多方决策模拟。
- 安排影随与回放:跟随资深销售,使用通话录音/会议回放做逐条点评。
- 引入检索练习与间隔复习:每48小时小测+每周综合测验,巩固记忆。
- 建立脚本与模板库:冷拨脚本、邮件模板、Discovery问题清单、Demo提纲。

七、评估与闸门(Gate)
- Gate 1 知识:产品/行业/流程/合规测验(建议≥85%通过;合规与信息安全需100%)。
- Gate 2 技能:情景化角色扮演评分(标准化量表,≥4/5);书面沟通作业通过。
- Gate 3 实战:两周内完成规定活动量与合格商机数;CRM数据完整与及时率达标。
- 未通过处理:提供定向补训与再评估;两次未过启动绩效改进计划或延后毕业评估。

八、教练与导师机制
- 指派导师(1:5-8)与直属经理共管;明确每周至少一次30分钟一对一。
- 采用SBI反馈法(情境-行为-影响);48小时内对重要通话给予书面与口头反馈。
- 建立教练日历:演练日、回放日、复盘日固定化,避免被业务挤占。
- 设定导师激励与考核:将新人达标率与导师绩效挂钩,保证投入质量。

九、实践与产出清单(示例)
- 第1周:完成ICP清单20家、撰写三版开场话术、通过合规认证。
- 第2周:冷启动外呼≥40次/天(或企业基准),预约合格会议≥5个/周。
- 第3-4周:完成2场完整Discovery并提交会议纪要与后续计划;完成一次价值呈现演练≥4/5分。
- 第5-6周:推进2个MQL至SQL(或企业定义的合格商机);提交商机策略表。
- 第7-8周:独立成交或推动至合同阶段(视周期);沉淀个人Playbook v1.1。

十、工具与资源配置
- 学习平台:LMS用于微课、测验与学习记录。
- 销售工具:CRM、邮件与日程、拨号/视频会议、数据看板、通话录音与分析工具。
- 资源库:销售Playbook、案例库、异议与回应库、模板与检查清单、术语表。
- 访问管理:入营前完成账号与权限开通清单;提供问题响应SLA(如4小时内)。

十一、合规与信息安全要求(与合规部门共拟)
- 数据与隐私:遵守适用的数据与隐私法规与公司制度(如个人信息保护相关要求);仅在授权范围内处理客户数据。
- 反商业贿赂与礼品:执行公司礼品/招待上限与报备流程。
- 广告与宣传:对外表述、案例与数据需经法务/合规审批。
- 记录留痕:所有外联与承诺需在CRM记录,确保可追溯。
- 发生疑问:立即停止相关动作并咨询合规/法务。

十二、运营管理与沟通
- 项目角色:项目负责人、教研负责人、导师群、学员代表、数据与工具支持、合规接口人。
- 例会节奏:每日站会15分钟、每周运营会30分钟、双周业务对齐会60分钟。
- 数据看板:实时展示活动量、转化率、测验通过率、工具合规度与警报。

十三、混合/远程交付要点
- 统一设备与环境标准(耳机、摄像头、安静空间);规定镜头开启与参与互动要求。
- 使用分组讨论室与协作白板;安排“安静自学时段”防止连续视频疲劳。
- 录制课程并提供要点摘要,方便回看与检索。

十四、质量保证与效果评估
- 采用Kirkpatrick四层评估:满意度(L1)、学习成效(L2)、行为改变(L3)、业务结果(L4)。
- 与历史同期对比:缩短上手周期、提升转化率、降低早期流失。
- 复盘改版:每期结束召开Retrospective,更新Playbook与课程迭代清单。

十五、包容与心理安全
- 建立“无惩罚演练区”,鼓励大胆试错与提问。
- 采用同伴互评与互助小组;关注新人压力管理与健康节奏。

十六、预算与ROI框架
- 成本项:人力(讲师/导师)、工具/平台、资料开发、时间占用。
- 产出项:缩短Ramp时间、提升人均产出、减少离职与招聘成本。
- 计算方法:以基线对比的增量毛利或成交额减去项目总成本。

十七、示例时间表(首周)
- Day 1:开营与文化、工具与合规、产品价值主张概览、脚本框架。
- Day 2:ICP与买家旅程、CRM实操、冷拨与邮件话术演练、回放点评。
- Day 3:SPIN提问实践、异议分类与回应、案例研讨、小测。
- Day 4:行业与竞品、价值呈现结构化表达、角色扮演、导师一对一。
- Day 5:综合演练与测评、个人行动计划(下周活动目标)、周复盘。

十八、关键模板与量表示例(建议提前准备)
- 入营清单:账号/设备/权限/资料/联系人。
- 会议纪要模板:目标-要点-证据-风险-下一步。
- 角色扮演评分表:目标达成、结构、提问、倾听、价值表达、推进、合规(1-5分)。
- 商机策略表:涉众图谱、痛点证据、竞争态势、赢单策略、下一步承诺。

执行提示
- 用真实客户与本公司数据编写示例,提升迁移性。
- 控制每日信息量,留出练习与反思时间。
- 强化经理责任:经理对新人90天目标达成负责,培训部提供方法与资源。
- 小步快跑、周周迭代:以学员表现与一线反馈为依据持续优化。

按以上方针搭建并运营销售新人加速营,可有效缩短上手周期、提升销售行为质量,并将培训转化为可衡量的业务结果。

适用用户

中小学教师

快速产出符合学段的项目指南、课堂步骤与评价表;跨班复用并按班情微调,显著减少备课时间。

高校教师与教务团队

为课程项目、实验或毕业设计生成流程、里程碑与评分细则;统一标准,便于多名助教协同管理与督导。

企业培训经理

针对内训主题一键生成实操任务、考核标准与学习路径;落地到岗位场景,提升学以致用与转化率。

教研员与课程设计师

批量制定学校级或区域性项目模板;对齐核心素养与学科目标,沉淀可复制的实施规范与范式。

教育类创业者与产品经理

为课程产品快速搭建项目化学习框架、用户使用指引与材料清单;缩短从方案到上线的迭代周期。

NGO与公益项目负责人

面向多语言与多地区志愿者,生成安全合规则的活动指南、分工清单与进度跟踪表,统一标准执行。

学生社团与竞赛指导老师

为竞赛或社团项目提供任务拆解、时间表与风险提示;提升团队协作效率与成果产出质量。

培训机构班主任与助教

依据班级差异生成个性化项目要求与家校沟通版本;提供跟进提醒模板,提高完成度与满意度。

解决的问题

打造一条“即输即得”的项目指引生产线,帮助教育与培训相关从业者在5分钟内把任意主题/项目,转化为可落地的行动指南。核心目标: - 让零散需求变成结构化方案:明确项目目标、关键任务、时间线、角色分工、资源清单、风险与应对、验收标准与评估指标。 - 输出可直接执行的指令与清单:以祈使句、编号/项目符号呈现,步骤清晰、无废话、便于分发和协作。 - 保证内容可靠与聚焦:强调事实核查与不夸大,严格围绕教育场景,避免跑题与空泛建议。 - 支持多语言与多场景:一键指定输出语言,覆盖课程开发、班级活动、教师培训、家校沟通、教研课题、教育产品迭代等。 - 降低试用门槛、提升转化:通过“输入主题+选择语言→即时生成标准版指南”的极简路径,快速呈现价值,促成复用与升级付费。

特征总结

一键生成可落地的项目指导方针,按步骤拆解任务与里程碑,学生照单执行即可。
自动优化目标与评价标准,对齐学习成果,附可操作检查表与打分量表模板。
支持多学段与多学科场景,按年级与主题定制深浅,兼顾创新实践与课堂管理。
轻松生成多语言版本,面向家校沟通与国际课程,一次设置,跨班复用无障碍。
内置风险与合规提示,提前规避常见误区与安全问题,保障教学与项目推进。
上下文理解强,能读取你给的课程大纲与资源,自动衔接已有材料与教学节奏。
一键调用协作模式,为教师、助教与学生分配角色任务,明确责任与交付清单。
提供时间与资源估算,给出工具与资料清单和进度表,显著缩短备课与实施成本。
支持模板化复用,保存最佳实践为学校标准,批量生成不同班级的专属方案。
生成行动导向的指引与提示语,驱动学生自我管理,提升产出质量与按时提交率。

如何使用购买的提示词模板

1. 直接在外部 Chat 应用中使用

将模板生成的提示词复制粘贴到您常用的 Chat 应用(如 ChatGPT、Claude 等),即可直接对话使用,无需额外开发。适合个人快速体验和轻量使用场景。

2. 发布为 API 接口调用

把提示词模板转化为 API,您的程序可任意修改模板参数,通过接口直接调用,轻松实现自动化与批量处理。适合开发者集成与业务系统嵌入。

3. 在 MCP Client 中配置使用

在 MCP client 中配置对应的 server 地址,让您的 AI 应用自动调用提示词模板。适合高级用户和团队协作,让提示词在不同 AI 工具间无缝衔接。

¥10.00元
平台提供免费试用机制,
确保效果符合预期,再付费购买!

您购买后可以获得什么

获得完整提示词模板
- 共 221 tokens
- 2 个可调节参数
{ 输入主题或项目 } { 输出语言 }
自动加入"我的提示词库"
- 获得提示词优化器支持
- 版本化管理支持
获得社区共享的应用案例
限时免费

不要错过!

免费获取高级提示词-优惠即将到期

17
:
23
小时
:
59
分钟
:
59