热门角色不仅是灵感来源,更是你的效率助手。通过精挑细选的角色提示词,你可以快速生成高质量内容、提升创作灵感,并找到最契合你需求的解决方案。让创作更轻松,让价值更直接!
我们根据不同用户需求,持续更新角色库,让你总能找到合适的灵感入口。
为指定主题的研究生成五个学术访谈问题。
论点陈述:为系统探查博士生在学术写作中的伦理认知、实际操作与制度支持,本访谈问题以半结构化为设计原则,覆盖知识—态度—行为—情境—支持五个层面。问题基于学术诚信与研究写作领域的权威框架与实证证据,旨在生成可解释、可比较且有助于实践改进的资料。 1) 伦理认知与规范来源 问题:请描述您对学术写作中关键伦理概念的理解(如抄袭、恰当改写与引用、文本再利用/自我抄袭、数据的诚实与可追溯性、作者署名规范)。这些认识主要通过哪些正式(课程、手册、制度)与非正式(导师指导、同行交流)渠道获得? 设计依据与文献:明确概念边界与规范来源有助于判断伦理知识的内化程度与误区(APA, 2020;Pecorari, 2008;Steneck, 2007)。 2) 引用与改写的具体实践 问题:以您最近一次重要写作任务(如文献综述或论文初稿)为例,说明您如何做出“直接引用/改写/综合性叙述”的决策,如何记录出处并控制文本相似度,以及使用了哪些工具或流程(如笔记、参考文献管理软件、相似度检测)来确保准确性与可追溯性? 设计依据与文献:文本再语境化与可追溯的证据链是防止不当文本借用的关键(APA, 2020;Pecorari, 2008)。过程性探询可捕捉从意向到行为的关键环节(Paltridge & Starfield, 2007)。 3) 合作写作与作者资格 问题:请回顾一次与导师或同侪的合作写作经历。团队如何讨论作者顺序与贡献认定?是否参照了具体准则(如对“实质性贡献、撰写/修订、最终认可、问责”的共同满足标准),以及如何记录贡献与处理分歧? 设计依据与文献:规范化的作者资格标准与书面化的贡献记录可减少争议并提升问责性(ICMJE, 2023;Singapore Statement, 2010;Steneck, 2007)。 4) 压力情境与伦理决策 问题:在发表或毕业要求、语言负担、跨学科/跨文化规范差异等压力情境下,您是否经历过写作伦理方面的困境(如文本再利用、切分发表、边界模糊的改写)?当时的权衡过程与支持资源是什么? 设计依据与文献:情境压力与制度激励可能影响伦理判断并增加可疑研究行为的风险,需通过情境化追问捕捉“灰色地带”的决策逻辑(Martinson et al., 2005;ICAI, 2021)。 5) 培训与制度支持的有效性与改进 问题:您在博士阶段接受过哪些科研诚信(RCR)与学术写作培训(如课程、工作坊、写作小组、写作中心指导)?哪些环节最有帮助或仍存不足?对于课程设计、导师指导与评估机制,您有哪些基于经验的改进建议? 设计依据与文献:系统化RCR教育与社群化写作支持(如写作小组)可提升伦理敏感度与写作质量,需通过学习者视角评估有效性并反哺课程与制度改良(Steneck, 2007;Aitchison & Guerin, 2014;ICAI, 2021)。 参考文献(APA第7版) - Aitchison, C., & Guerin, C. (2014). Writing groups for doctoral education and beyond: Innovations in practice and theory. Routledge. - American Psychological Association. (2020). Publication manual of the American Psychological Association (7th ed.). American Psychological Association. - International Committee of Medical Journal Editors. (2023). Recommendations for the conduct, reporting, editing, and publication of scholarly work in medical journals. http://www.icmje.org/recommendations/ - International Center for Academic Integrity. (2021). The fundamental values of academic integrity (3rd ed.). ICAI. - Martinson, B. C., Anderson, M. S., & de Vries, R. (2005). Scientists behaving badly. Nature, 435, 737–738. - Paltridge, B., & Starfield, S. (2007). Thesis and dissertation writing in a second language: A handbook for supervisors. Routledge. - Pecorari, D. (2008). Academic writing and plagiarism: A linguistic analysis. Continuum. - Singapore Statement on Research Integrity. (2010). Singapore statement on research integrity. https://wcrif.org/guidance/singapore-statement - Steneck, N. H. (2007). ORI introduction to the responsible conduct of research (2nd ed.). Office of Research Integrity.
论点陈述:为识别并解释跨校区教学改革的因果机制,访谈问题应聚焦于情境—机制—结果(CMO)配置、时间顺序与可验证过程证据、实施忠实度与适应性差异,以及反事实与竞争性解释的区分。此类设计可提升机制性证据的质量与因果推断的可信度,符合现实主义评价、过程追踪与贡献分析等方法学原则(Pawson & Tilley, 1997; Beach & Pedersen, 2019; Mayne, 2012; Durlak & DuPre, 2008; Coburn, 2003; Hedström & Ylikoski, 2010)。 访谈问题(用于识别跨校区教学改革的因果机制): 1) 理论链条与关键机制识别:请您使用“投入—活动—中介机制—短期/长期结果”的框架,阐述本次跨校区教学改革的变革路径;在您看来,最关键的机制是什么?该机制通过哪些具体的教师或组织行为被触发并维持? 2) 情境差异与CMO对比:在不同校区(或学段/学科),哪些情境条件(如领导与治理、资源与数据基础设施、组织文化与专业共同体、家长与社区期望)促进或抑制了上述机制的激活?请提供至少两个对比性案例,说明同一举措为何在不同情境下产生不同的结果。 3) 实施忠实度、适应与中介/调节因素:在实施过程中,哪些要素(如培训强度与质量、协作频率与结构、工具与评价规则的使用规范)对机制触发最为关键?出现了哪些有意的情境化适应?这些变化如何通过中介或调节因素影响结果的方向与效应大小? 4) 过程证据与关键事件:请按时间顺序回溯改革中的关键节点(如决策与资源到位、平台上线、评价制度调整、跨校区教研安排),并指出可用于检验机制存在的可追溯证据(如会议纪要、课堂观察记录、平台日志、师生作业与测评数据)。哪些事件构成“转折点”,为何足以改变结果走向? 5) 反事实与竞争性解释:若未实施此项改革,最可能的结果轨迹是什么?有哪些竞争性解释(如同期政策变化、人员流动、外部冲击)也可能解释观察到的变化?我们可以采用哪些证据或设计(跨校区对照、错时推进、历史趋势对比)来区分不同解释的相对贡献? 参考文献(APA): - Beach, D., & Pedersen, R. B. (2019). Process-tracing methods: Foundations and guidelines (2nd ed.). University of Michigan Press. - Coburn, C. E. (2003). Rethinking scale: Moving beyond numbers to deep and lasting change. Educational Researcher, 32(6), 3–12. - Durlak, J. A., & DuPre, E. P. (2008). Implementation matters: A review of research on the influence of implementation on program outcomes and the factors affecting implementation. American Journal of Community Psychology, 41(3–4), 327–350. - Hedström, P., & Ylikoski, P. (2010). Causal mechanisms in the social sciences. Annual Review of Sociology, 36, 49–67. - Mayne, J. (2012). Contribution analysis: Coming of age? Evaluation, 18(3), 270–280. - Pawson, R., & Tilley, N. (1997). Realistic evaluation. Sage. - Weiss, C. H. (1997). Theory-based evaluation: Past, present, and future. New Directions for Evaluation, 1997(76), 41–55.
以下5个半结构式访谈问题围绕“目标—教学—评价的一致性”、学习证据、实施忠实度与情境适配、公平性差异与响应、以及课程层面改进决策五个关键维度构建,旨在支持对不同教学法的严谨对比与课程评价,符合建构性对齐、基于证据评价与项目改进导向等主流框架(Biggs, 1996; Black & Wiliam, 1998; Stufflebeam, 2003; Patton, 2008)。 - 问题1(对齐性与教学设计逻辑) 在本课程中,您如何将所采用的教学法与预期学习成果及评估方式进行对齐?请结合具体教学活动与评价任务举例说明这一对齐如何影响学生的学习路径。 依据与目的:建构性对齐强调学习目标、学习活动与评估证据的一致性,是比较不同教学法有效性的前提(Biggs, 1996),而教学法与学科内容知识的紧密耦合有助于确保方法适切性(Shulman, 1986)。 - 问题2(学习证据与评价推断) 相较于另一种教学法,您基于哪些直接与间接证据判断该教学法更有效(如形成性评价数据、学生作品质量、同侪互评、课堂观察、学习分析等)?这些证据如何在教学周期内被收集、解释与反馈到教学改进中? 依据与目的:课堂层面的形成性证据与及时反馈是提升学习成效与区分教学法效果的关键(Black & Wiliam, 1998; Hattie, 2009);同时需关注基于证据的推断有效性与可解释性(Messick, 1995)。 - 问题3(实施忠实度与情境适配) 在实施该教学法时,哪些核心做法必须保持不变以维持理论机理与预期效应?在何种情境与约束下您进行了哪些适配调整,这些调整对学习过程与结果可能产生何种影响? 依据与目的:比较教学法时需同时考察实施忠实度与必要适配,以避免将情境或执行偏差混淆为方法本身效应(O’Donnell, 2008);情境资源与组织条件会系统性影响教学实施质量(Cohen, Raudenbush, & Ball, 2003)。 - 问题4(公平性与差异化效果) 不同学生群体(如先前成就水平、社会经济背景、语言与文化背景、性别等)在两种教学法下的学习体验与成效是否存在差异?您如何识别这些差异并据此实施差异化支持或文化响应性教学? 依据与目的:教学法效果可能在群体间异质,公平取向要求识别与响应差异以促进机会均等与学习获得(Ladson-Billings, 1995; Hattie, 2009)。 - 问题5(课程层面的评价与改进决策) 基于现有证据,您如何在课程层面决策对某教学法的延续、优化或扩展?在CIPP(情境—投入—过程—产出)或效用导向框架下,需要哪些额外证据、资源与组织支持来嵌入持续改进机制? 依据与目的:课程评价应服务于改进与决策,CIPP模型与效用导向评价强调以使用为中心的证据收集与反馈回路(Stufflebeam, 2003; Patton, 2008)。 参考文献(APA第7版) - Biggs, J. (1996). Enhancing teaching through constructive alignment. Higher Education, 32(3), 347–364. - Black, P., & Wiliam, D. (1998). Assessment and classroom learning. Assessment in Education: Principles, Policy & Practice, 5(1), 7–74. - Cohen, D. K., Raudenbush, S. W., & Ball, D. L. (2003). Resources, instruction, and research. Educational Evaluation and Policy Analysis, 25(2), 119–142. - Hattie, J. (2009). Visible learning: A synthesis of over 800 meta-analyses relating to achievement. Routledge. - Ladson-Billings, G. (1995). Toward a theory of culturally relevant pedagogy. American Educational Research Journal, 32(3), 465–491. - Messick, S. (1995). Validity of psychological assessment: Validation of inferences from persons’ responses and performances as scientific inquiry into score meaning. American Psychologist, 50(9), 741–749. - O’Donnell, C. L. (2008). Defining, conceptualizing, and measuring fidelity of implementation and its relationship to outcomes: A review of implementation research. Review of Educational Research, 78(1), 33–84. - Patton, M. Q. (2008). Utilization-focused evaluation (4th ed.). SAGE. - Shulman, L. S. (1986). Those who understand: Knowledge growth in teaching. Educational Researcher, 15(2), 4–14. - Stufflebeam, D. L. (2003). The CIPP model for evaluation. In T. Kellaghan & D. L. Stufflebeam (Eds.), International handbook of educational evaluation (pp. 31–62). Kluwer Academic.
快速搭建半结构访谈提纲与追问清单,确保学术表达与引用规范一致,完善伦理审查材料准备,显著缩短开题到入田的准备周期。
统一团队访谈标准,面向多校区或多地区同步执行,保证问题一致性与可比性,聚焦因果机制与实践改进,提升项目交付质量与进度。
围绕课堂改革、课程评价或教学法对比,按教师、学生、家长生成差异化问题,迅速收集证据,支撑教改方案的落地与迭代。
用于满意度、学习成效与项目评估场景,自动输出可编码的访谈问题与追问逻辑,方便后续整理、归类与报告撰写。
结合政策试点与治理议题,设计多方利益相关者访谈提纲,多语输出支持区域比较,沉淀面向政策改进的可操作建议。
以学习产品为场景生成用户访谈清单与探究路径,避免诱导问法,快速获取高价值洞察,沉淀可复用研究模板。
一键切换目标语言与学术语气,保持跨文化表达一致,确保不同国家样本访谈内容可比,降低沟通与培训成本。
用几分钟生成可直接上手的高质量学术访谈问题清单,帮助教育研究者快速从“想到题”跃迁到“问到点”。通过让模型以资深教育研究员视角工作,持续产出:1) 面向研究目标的5个关键问题;2) 开放、中立、可追问的问法,减少引导性与歧义;3) 可按受访对象(学生/教师/管理者)、场景(课堂/线上/校际)与语言自动定制;4) 兼顾信度与效度的设计逻辑,支持后续数据分析与证据累积。适用于课题立项、方案评审、试点访谈、跨语种协作与多地联合调研,显著缩短准备时间,降低方法风险,提升成果质量与可复用性。
将模板生成的提示词复制粘贴到您常用的 Chat 应用(如 ChatGPT、Claude 等),即可直接对话使用,无需额外开发。适合个人快速体验和轻量使用场景。
把提示词模板转化为 API,您的程序可任意修改模板参数,通过接口直接调用,轻松实现自动化与批量处理。适合开发者集成与业务系统嵌入。
在 MCP client 中配置对应的 server 地址,让您的 AI 应用自动调用提示词模板。适合高级用户和团队协作,让提示词在不同 AI 工具间无缝衔接。
免费获取高级提示词-优惠即将到期