×
¥
查看详情
🔥 会员专享 文生文 设计

模块自评问题生成器

👁️ 355 次查看
📅 Dec 11, 2025
💡 核心价值: 为特定课程模块生成学术性强、结构严谨的自我评估问题。适用于课程开发者或教育者,用于检验学习者对模块核心概念的理解深度,支持定制化主题与学术规范,确保问题精准、客观且具有评估价值。

🎯 可自定义参数(6个)

模块主题
需要设计自评问题的具体课程模块名称或核心内容领域
学科领域
课程模块所属的学科领域
评估深度
自我评估问题旨在考察的学习深度层次
目标学习者水平
目标学习者的知识或技能水平
期望问题类型偏好
期望在自我评估中采用的问题形式
特定引用格式要求
回答中引用来源时需要遵循的学术规范格式

🎨 效果示例

以下5个自我评估问题围绕“算法复杂度与数据结构优化:以AVL树与二叉堆为核心,结合摊还分析、缓存友好性与工程化取舍,面向图搜索与排序实现的性能与可维护性提升”设计,定位于计算机科学中级学习者,评估深度为“应用分析(运用与解释)”。每题在论述要点或设问背景中引用权威来源以支持问题的学术严谨性,引用格式为IEEE。

  1. 案例分析题(图搜索优先队列的结构选择) 情境:在一张稀疏道路网络图上执行Dijkstra或A*搜索,规模约为V=5×10^6、E≈3V,单机内存64 GB,CPU具备较深层次缓存层级。团队在优先队列结构上犹豫于使用AVL树(基于指针的平衡BST)或隐式二叉堆(数组实现)。 任务:
  • 请分别给出两种结构在extract-min与decrease-key操作下对整体算法复杂度的贡献,并据此推导算法的渐近复杂度表达式(可参考[1]第20–21章;关于Fibonacci堆的理论上界可参考[4],用于对比但不必实现)。
  • 在缓存友好性与分支预测方面,结合数组式堆的连续内存布局与AVL的指针追踪特点,分析两者在现代CPU上的常数因子差异与潜在瓶颈(参考[2];堆数组布局的局部性优势见[1]第6章、[2])。
  • 基于上述分析,提出工程化取舍建议,明确说明在该规模与Workload下为何选择某一结构,并阐明对可维护性的影响(接口简洁性、实现复杂度、调试与测试成本)[7]。
  1. 简答题(构建与“取最小”工作负载的两种管线比较) 情境:需要从一个包含n个无序键的数组构建数据结构,然后执行m次取最小(extract-min)。 任务:
  • 比较两条管线的总复杂度与常数因子:A) 通过Floyd建堆(heapify)O(n)后执行m次extract-min;B) 通过依次插入构建AVL树O(n log n)后执行m次delete-min(均摊/最坏界需说明)(参考[1]第6章、[5]第2章)。
  • 在缓存友好性方面,解释为何数组堆在大n时较可能获得更优的访存局部性,相比之下AVL的指针密集访问会带来更高的缺失率与分支失配风险(参考[2], [6])。
  • 综合给出在m≈n与m≪n两种场景下的选择建议,并明确分析依据。
  1. 选择题(d叉堆在Dijkstra中的工程化权衡) 在用d叉堆取代二叉堆实现Dijkstra时,产生如下说法。请选择“最全面且正确”的一项(单选)。 A. 增大d总能加速Dijkstra,因为log_d V严格变小,比较次数保持不变。 B. 增大d不会影响渐近复杂度,也不会影响缓存行为,因为d叉堆同样是数组存储。 C. 适度增大d(如d=4或8)可降低堆的高度、减少逐层上/下滤需要的层数,可能改进局部性;但每步筛选的子节点比较数为O(d),存在最佳d的实用折中点,过大d会因比较开销与缓存压力上升而变慢(参考[1]第6章对d叉堆的复杂度讨论与工程化常识,亦可结合[2]对缓存行为的分析)。 D. 使用d叉堆能将Dijkstra的复杂度改进为O(E+V),与Fibonacci堆相同。 说明:请在作答中给出选择理由,涉及extract-min与decrease-key的复杂度表达式与常数因子来源。

  2. 案例分析题(“显式DecreaseKey”与“惰性DecreaseKey”的取舍) 情境:现有二叉堆优先队列为Dijkstra/A*提供显式decrease-key(借助句柄/位置索引)。团队拟切换为“惰性策略”(每次松弛均插入新键值,不执行decrease-key;在extract-min时丢弃已过期的条目)以简化实现。 任务:

  • 分析两种策略对整体复杂度的影响,并给出在E≈O(V)的稀疏图上的渐近表达式与常数因子差异;请特别说明惰性策略对插入次数、堆大小分布与extract-min时丢弃开销的影响(参考[1]第20–21章;关于优先队列操作对Dijkstra复杂度的作用机理参考[1]与[4]的对比框架)。
  • 结合缓存友好性与分支行为,讨论惰性策略是否可能提升局部性(更少随机更新、更集中append式写入)或引入新的瓶颈(更大堆导致更深的筛选路径)(参考[2])。
  • 从可维护性(API简洁、减少指针句柄错误源、测试便利性)与内存占用(更多重复条目)两方面提出清晰的工程化选择建议,并说明适用前提。
  1. 简答题(基于堆的排序与工程化替代的对比) 情境:需对1×10^7个64位整数在内存中排序;要求最坏界O(n log n)、无需稳定性、强调可维护与可预测性能。 任务:
  • 分析堆排序(基于二叉堆)与内省式排序(introsort,快排+堆排序回退)在渐近复杂度、缓存友好性(顺序访存 vs. 间接/跳跃访存)、分支预测与常数因子上的差异,结合“缓存对排序的影响”的实证结论给出性能预期(参考[1]第7章、[6]、[8])。
  • 若需“严格上界 + 更低实现复杂度 + 可预测性能”,说明在何种场景下仍可优先选择堆排序,并阐明对代码可维护性的利弊(实现体量、可测试性、平台差异敏感性)(参考[1], [6])。

参考文献 [1] T. H. Cormen, C. E. Leiserson, R. L. Rivest, and C. Stein, Introduction to Algorithms, 3rd ed. Cambridge, MA, USA: MIT Press, 2009. [2] U. Drepper, “What Every Programmer Should Know About Memory,” Red Hat, Inc., 2007. [Online]. Available: https://www.akkadia.org/drepper/cpumemory.pdf [3] R. E. Tarjan, Data Structures and Network Algorithms. Philadelphia, PA, USA: SIAM, 1983. [4] M. L. Fredman and R. E. Tarjan, “Fibonacci heaps and their uses in improved network optimization algorithms,” J. ACM, vol. 34, no. 3, pp. 596–615, 1987. [5] K. Mehlhorn and P. Sanders, Algorithms and Data Structures: The Basic Toolbox. Berlin, Germany: Springer, 2008. [6] A. LaMarca and R. E. Ladner, “The influence of caches on the performance of sorting,” J. Algorithms, vol. 31, no. 1, pp. 66–104, 1999. [7] B. V. Cherkassky, A. V. Goldberg, and T. Radzik, “Shortest path algorithms: Theory and experimental evaluation,” Math. Program., vol. 73, no. 2, pp. 129–174, 1996. [8] D. R. Musser, “Introspective sorting and selection algorithms,” Softw. Pract. Exper., vol. 27, no. 8, pp. 983–993, 1997.

以下五个自我评估问题面向高级学习者,围绕“逆向课程设计与成果导向教育:从可衡量学习产出界定到证据与教学活动对齐(含Rubric构建、SMART目标与课程图谱一致性校准)”而设计。问题类型优先采用论述题、反思性问题与案例分析题;每题均以权威文献为理论依据,并要求作答者在回答中使用APA格式引文,体现批判性与创新性。

  1. 论述题:整合性框架的提出与证据化论证 论点陈述:批判性评估逆向课程设计(Backward Design)与建构性对齐(Constructive Alignment)在成果导向教育(OBE)中的互补性与潜在张力,并提出一个跨层级(项目/课程/教学单元)的对齐与校准框架,解释从“可衡量学习产出→证据→教学活动”的逻辑链条如何实现闭环改进(Wiggins & McTighe, 2005; Biggs, 1996; Biggs & Tang, 2011; Spady, 1994)。 任务要求:
  • 以一门你熟悉的课程为例,构建“学习产出—评价证据—教学活动(CLO–Assessment Evidence–TLA)”三列对齐矩阵,并指明各项的认知水平(Anderson & Krathwohl, 2001)。
  • 使用Porter对齐指数或同类方法对“目标—评估—教学”在内容与认知要求上的一致性进行定量/半定量检视,并据此提出结构性改进建议(Porter, 2002)。
  • 论证你的对齐与校准主张如何在课程图谱与项目级学习产出(PLO)层面实现纵向与横向一致(Harden, 2001)。 引用提示:至少引用5个同行评审或公认权威来源(APA格式)。
  1. 案例分析题:从“模糊目标—弱证据”到“SMART目标—强证据—可辩护评分” 情境概述(假设案例):课程《教育测量导论》现有学习产出包含“理解信度与效度”“掌握评分量规”等笼统表述;主要证据为事实性选择题;教学活动以讲授为主,缺少高阶任务与明确达标标准。 任务要求:
  • 将3–4条课程学习产出重写为SMART且可观察、可测量的表述,明确条件、行为、达标标准与时间范围(Doran, 1981; Mager, 1997)。
  • 设计与之匹配的高阶证据任务(如批注型研究备忘录、评分一致性复核、评估设计小型研究方案),并阐明其认知要求(Anderson & Krathwohl, 2001)。
  • 构建一份分析型Rubric(维度、绩效水平、行为性描述、边界样例),并说明如何通过标准澄清、锚样与评分者培训提升评分质量(Brookhart, 2013; Sadler, 1989)。
  • 制定效度论证与证据收集计划,覆盖内容、内部结构、与其他变量关系、后果等来源,并说明如何控制评分者误差与任务抽样误差(Messick, 1995)。 引用提示:至少引用5个来源(APA格式)。
  1. 反思性问题:个人课程图谱的一致性审计与改进路径 任务要求:
  • 对你负责的一门课程实施课程图谱审计:将每条课程学习产出(CLO)映射至项目学习产出(PLO),并逐周标注对应教学活动(TLA)、证据(Assessment)与认知层级;识别覆盖度、序列性、螺旋提升与冗余(Harden, 2001; Biggs & Tang, 2011)。
  • 运用对齐分析(如Porter框架或自定评分矩阵)识别“教—学—评”不一致的具体环节与可能根因,并提出教学与评价的联动改造计划,包括证据任务的再设计与Rubric精炼(Porter, 2002; Brookhart, 2013)。
  • 说明你将如何监测改进的有效性(数据来源、指标、时间点)并建立持续改进闭环(如PDSA),同时阐明对学生学习与公平性的预期影响与风险缓解(Biggs, 1996; Messick, 1995)。 引用提示:至少引用4个来源(APA格式)。
  1. 案例分析题:跨课程Rubric的标准设定与评分一致性校准 情境概述(假设案例):同一专业多门课程共用“研究方案”Rubric,但不同教师评分差异大,学生跨课程表现不可比。 任务要求:
  • 设计一套项目级标准设定与评分者校准流程:选择并论证标准设定方法(如改良Angoff、边界样例法),制定评分者培训、锚定材料与复核机制(Angoff, 1971; Cizek & Bunch, 2007; Brookhart, 2013)。
  • 提出基于一般化理论的评分研究方案(G-study/D-study),明确受试对象、任务、评分者与测量设计,以量化误差来源并优化资源配置(Shavelson & Webb, 1991)。
  • 以效度论证为框架,阐明如何整合过程证据与结果证据以支持“跨课程可比性”的解释与用途(Kane, 2013)。 引用提示:至少引用5个来源(APA格式)。
  1. 论述题:面向改进的证据生态与研究验证 论点陈述:提出一个“以学习证据为中心”的项目化持续评估与对齐监测方案(可融入程序化评价与学习档案),以强化SMART学习产出、证据任务与教学活动之间的实时对齐与反馈(van der Vleuten & Schuwirth, 2005, 2012; Biggs & Tang, 2011)。 任务要求:
  • 设计关键绩效指标(如目标覆盖度、认知需求匹配度、评分者一致性、效度证据充分性)与数据流(课堂任务产物、Rubric评分、学生自评与同行评审)。
  • 提出严谨的评估研究设计(如混合方法、分段实施/交叉设计),说明因果推断策略、威胁与缓解(测量不变性、评分漂移、选择偏差),并阐明对学习成效与对齐质量的预期作用机制(Hattie, 2009; Kane, 2013)。 引用提示:至少引用5个来源(APA格式)。

参考文献(APA格式)

  • Anderson, L. W., & Krathwohl, D. R. (Eds.). (2001). A taxonomy for learning, teaching, and assessing: A revision of Bloom’s taxonomy of educational objectives. Longman.
  • Angoff, W. H. (1971). Scales, norms, and equivalent scores. In R. L. Thorndike (Ed.), Educational measurement (2nd ed., pp. 508–600). American Council on Education.
  • Biggs, J. (1996). Enhancing teaching through constructive alignment. Higher Education, 32(3), 347–364.
  • Biggs, J., & Tang, C. (2011). Teaching for quality learning at university (4th ed.). Open University Press.
  • Brookhart, S. M. (2013). How to create and use rubrics for formative assessment and grading. ASCD.
  • Cizek, G. J., & Bunch, M. B. (2007). Standard setting: A guide to establishing and evaluating performance standards on tests. SAGE.
  • Doran, G. T. (1981). There’s a S.M.A.R.T. way to write management’s goals and objectives. Management Review, 70(11), 35–36.
  • Harden, R. M. (2001). AMEE Guide No. 21: Curriculum mapping: A tool for transparent and authentic teaching and learning. Medical Teacher, 23(2), 123–137.
  • Hattie, J. (2009). Visible learning: A synthesis of over 800 meta-analyses relating to achievement. Routledge.
  • Kane, M. T. (2013). Validating the interpretations and uses of test scores. Journal of Educational Measurement, 50(1), 1–73.
  • Mager, R. F. (1997). Preparing instructional objectives (3rd ed.). CEP Press.
  • Messick, S. (1995). Validity of psychological assessment: Validation of inferences from persons’ responses and performances as scientific inquiry into score meaning. American Psychologist, 50(9), 741–749.
  • Porter, A. C. (2002). Measuring the content of instruction: Uses in research and policy. Educational Researcher, 31(7), 3–14.
  • Sadler, D. R. (1989). Formative assessment and the design of instructional systems. Instructional Science, 18(2), 119–144.
  • Shavelson, R. J., & Webb, N. M. (1991). Generalizability theory: A primer. SAGE.
  • Spady, W. G. (1994). Outcome-based education: Critical issues and answers. American Association of School Administrators.
  • van der Vleuten, C. P. M., & Schuwirth, L. W. T. (2005). Assessing professional competence: From methods to programmes. Medical Education, 39(3), 309–317.
  • van der Vleuten, C. P. M., & Schuwirth, L. W. T. (2012). Programmatic assessment for learning: Assessment in the service of learning. Medical Teacher, 34(3), 205–214.
  • Wiggins, G., & McTighe, J. (2005). Understanding by design (Expanded 2nd ed.). ASCD.

以下为针对初学者、评估深度为基础理解(识记与复述)的5道自我评估题,围绕随机对照试验(RCT)的样本量估计、盲法与分配隐藏、偏倚来源识别、数据完整性与CONSORT报告要点,并聚焦内外部效度。题型优先采用选择题与简答题。

  1. 题型:选择题 问题:在设计一项以二分类主要结局的优势性RCT时,样本量估计通常需要的核心输入参数是下列哪一组? A. 显著性水平(α)、把握度(1−β)、两组预期事件率或最小可接受的绝对效应差、分配比例
    B. 显著性水平(α)、研究者主观判断、期刊影响因子、研究持续时间
    C. 研究中心数量、研究者资历、显著性水平(α)、把握度(1−β)
    D. 显著性水平(α)、把握度(1−β)、均数和标准差(仅适用于连续结局)

  2. 题型:选择题 问题:以下哪一项措施主要用于防止选择偏倚,并在随机化进行之前或同时实施? A. 参与者盲法
    B. 研究者盲法
    C. 分配隐藏
    D. 结局评估者盲法

  3. 题型:选择题 问题:下列哪种情形最可能导致检测偏倚(detection bias)? A. 未使用中央随机化
    B. 参与者与护理提供者未盲,且结局由知晓分组的评估者以主观方式判定
    C. 随访期间存在失访
    D. 研究未注册并选择性报告显著结果

  4. 题型:选择题 问题:以下哪一项为CONSORT报告的要点,直接要求呈现各试验阶段受试者的数量及失访原因,以支持数据完整性与结果可解释性? A. 试验背景与理论依据
    B. 随机序列生成方法
    C. 参与者流程图(Flow diagram,条目13)
    D. 样本量计算方法

  5. 题型:简答题 问题:在RCT方法学中,区分“内部效度”和“外部效度”的概念。请各给出一个影响因素的例子。

参考答案与简要解析(含引文)

  1. 正确答案:A
    解析:样本量估计需事先指定显著性水平、把握度、预期效应大小(例如两组事件率或最小重要差异)以及分配比例;连续结局还需估计方差参数(如标准差);实践中亦常预留失访率以提高实际有效样本量(ICH E9; Friedman et al., 2015)。

  2. 正确答案:C
    解析:分配隐藏用于在实施随机化时屏蔽即将分配的组别信息,从而防止研究者或参与者影响入组与分配,主要针对“选择偏倚”;盲法则发生在随机化之后,用于降低实施与评估过程中的偏倚(Schulz and Grimes, 2002a; Moher et al., 2010)。

  3. 正确答案:B
    解析:当结局评估者知晓分组且结局具有主观成分时,最易引发检测偏倚;A更贴近于选择偏倚;C多与失访/随访不完全导致的脱落偏倚相关;D反映选择性报告偏倚(Higgins et al., 2022)。

  4. 正确答案:C
    解析:CONSORT明确要求报告参与者在各阶段(分配、干预、随访、分析)的数量及失访、排除原因,常用流程图呈现(条目13),以支持数据完整性与结果可解释性(Moher et al., 2010)。

  5. 参考要点:

  • 内部效度:指观察到的因果效应主要归因于干预而非偏倚、混杂或随机误差;示例因素:充分的分配隐藏与适当盲法、较低且均衡的失访、预先指定并遵循的分析计划(例如ITT原则)(ICH E9; Higgins et al., 2022)。
  • 外部效度:指试验结果可推广至其他人群、环境或时间的程度;示例因素:纳入排除标准的严苛程度、试验环境与常规临床实践的一致性、参与者特征的代表性(Rothwell, 2005)。

参考文献(Harvard格式)

  • Friedman, L.M., Furberg, C.D. and DeMets, D.L. (2015) Fundamentals of Clinical Trials. 5th edn. New York: Springer.
  • Higgins, J.P.T., Thomas, J., Chandler, J., Cumpston, M., Li, T., Page, M.J. and Welch, V.A. (eds) (2022) Cochrane Handbook for Systematic Reviews of Interventions. Version 6.3 (updated February 2022). London: Cochrane.
  • International Council for Harmonisation (ICH) (1998) E9: Statistical Principles for Clinical Trials. Geneva: ICH.
  • International Council for Harmonisation (ICH) (2019) E9(R1): Addendum on Estimands and Sensitivity Analysis in Clinical Trials. Geneva: ICH.
  • Moher, D., Hopewell, S., Schulz, K.F., Montori, V., Gøtzsche, P.C., Devereaux, P.J., Elbourne, D., Egger, M. and Altman, D.G. (2010) CONSORT 2010 Explanation and Elaboration: Updated guidelines for reporting parallel group randomised trials. BMJ, 340, c869.
  • Schulz, K.F. and Grimes, D.A. (2002a) Allocation concealment in randomised trials: Defending against deciphering. The Lancet, 359(9306), pp. 614–618.
  • Schulz, K.F. and Grimes, D.A. (2002b) Blinding in randomised trials: Hiding who got what. The Lancet, 359(9307), pp. 696–700.
  • Rothwell, P.M. (2005) External validity of randomised controlled trials: To whom do the results of this trial apply? The Lancet, 365(9453), pp. 82–93.

示例详情

📖 如何使用

30秒出活:复制 → 粘贴 → 搞定
与其花几十分钟和AI聊天、试错,不如直接复制这些经过千人验证的模板,修改几个 {{变量}} 就能立刻获得专业级输出。省下来的时间,足够你轻松享受两杯咖啡!
加载中...
💬 不会填参数?让 AI 反过来问你
不确定变量该填什么?一键转为对话模式,AI 会像资深顾问一样逐步引导你,问几个问题就能自动生成完美匹配你需求的定制结果。零门槛,开口就行。
转为对话模式
🚀 告别复制粘贴,Chat 里直接调用
无需切换,输入 / 唤醒 8000+ 专家级提示词。 插件将全站提示词库深度集成于 Chat 输入框。基于当前对话语境,系统智能推荐最契合的 Prompt 并自动完成参数化,让海量资源触手可及,从此彻底告别"手动搬运"。
即将推出
🔌 接口一调,提示词自己会进化
手动跑一次还行,跑一百次呢?通过 API 接口动态注入变量,接入批量评价引擎,让程序自动迭代出更高质量的提示词方案。Prompt 会自己进化,你只管收结果。
发布 API
🤖 一键变成你的专属 Agent 应用
不想每次都配参数?把这条提示词直接发布成独立 Agent,内嵌图片生成、参数优化等工具,分享链接就能用。给团队或客户一个"开箱即用"的完整方案。
创建 Agent

✅ 特性总结

一键生成贴合模块主题的5条学术自评题,聚焦核心概念与能力达成
自动对齐学习目标、教学策略与评估方式,输出可直接使用的问题表述
支持多语种作答与本地化表达,方便跨校区与跨地区统一教学资源
内置基于证据的正式风格与引用提示,确保文本严谨、规范、可追溯
可按难度与认知层级定制,覆盖理解、应用、评价等多层面的自评
聚焦关键信息,避免跑题与冗余,让每一题直指学习成果与证据
适配设计、工程、商科等多学科与阶段,模块更替也能快速复用
一次配置即可批量复用模板,迅速为整门课程生成标准化题集
提供可执行的改写与优化建议,轻松匹配院系规范或外部认证标准
生成结构清晰的题干与提示语,可直接嵌入讲义、教学平台与问卷

🎯 解决的问题

为高校教师、培训负责人与课程设计师提供一套即插即用的“模块自评问题生成器”,围绕任意教学模块,快速产出5个高质量自我评估问题;问题自动对齐课程规划、学习目标与评估标准,语言严谨、可衡量、可落地;支持多语种输出,适配国际化教学与跨团队协作;在保障学术严谨的同时显著缩短设计时间,提升课程一致性、审核通过率与学习成效可视化,帮助用户从试用快速过渡到日常必备工具。

🕒 版本历史

当前版本
v2.1 2024-01-15
优化输出结构,增强情节连贯性
  • ✨ 新增章节节奏控制参数
  • 🔧 优化人物关系描述逻辑
  • 📝 改进主题深化引导语
  • 🎯 增强情节转折点设计
v2.0 2023-12-20
重构提示词架构,提升生成质量
  • 🚀 全新的提示词结构设计
  • 📊 增加输出格式化选项
  • 💡 优化角色塑造引导
v1.5 2023-11-10
修复已知问题,提升稳定性
  • 🐛 修复长文本处理bug
  • ⚡ 提升响应速度
v1.0 2023-10-01
首次发布
  • 🎉 初始版本上线
COMING SOON
版本历史追踪,即将启航
记录每一次提示词的进化与升级,敬请期待。

💬 用户评价

4.8
⭐⭐⭐⭐⭐
基于 28 条评价
5星
85%
4星
12%
3星
3%
👤
电商运营 - 张先生
⭐⭐⭐⭐⭐ 2025-01-15
双十一用这个提示词生成了20多张海报,效果非常好!点击率提升了35%,节省了大量设计时间。参数调整很灵活,能快速适配不同节日。
效果好 节省时间
👤
品牌设计师 - 李女士
⭐⭐⭐⭐⭐ 2025-01-10
作为设计师,这个提示词帮我快速生成创意方向,大大提升了工作效率。生成的海报氛围感很强,稍作调整就能直接使用。
创意好 专业
COMING SOON
用户评价与反馈系统,即将上线
倾听真实反馈,在这里留下您的使用心得,敬请期待。
加载中...
📋
提示词复制
在当前页面填写参数后直接复制: