热门角色不仅是灵感来源,更是你的效率助手。通过精挑细选的角色提示词,你可以快速生成高质量内容、提升创作灵感,并找到最契合你需求的解决方案。让创作更轻松,让价值更直接!
我们根据不同用户需求,持续更新角色库,让你总能找到合适的灵感入口。
生成关于指定主题的教学视频脚本开头,注重专业性和准确性。
小学科学“水的三态”探究课教学视频脚本(开场:明确学习目标与评价方式) [00:00–00:15 画面] 特写与延时影像:冰块在玻璃皿中缓慢融化;烧杯中的水逐渐沸腾并产生水蒸气;冷表面上水汽凝结成水滴。屏幕叠加分子层面示意动画(固态排列致密、液态相对松散、气态分散快速运动)。 旁白(教师) 今天的探究将围绕一个核心问题展开:水为何能在固态、液态与气态之间转变?我们将用可观测、可测量的证据,解释温度改变如何影响水的状态与粒子运动。 [00:15–00:35 画面] 出现数字温度传感器与平板端数据可视化界面(实时曲线空白等待记录)。右下角显示“探究问题”标题。 旁白(教师) 在标准大气压下,水随温度变化在三种状态之间转化。通过数字温度传感器与可视化工具记录加热与冷却过程的温度—时间数据,并结合基于证据的解释,我们将构建关于相变的朴素模型,并与科学模型对比与修正(NRC, 2012;NGSS Lead States, 2013)。 [00:35–01:05 画面] 屏幕展示“学习目标”(要点式),并配合对应图标:测量、模型、解释、沟通。 旁白(教师) 学习目标(本视频与随堂活动对齐): - 知识与理解:描述水在固态、液态与气态下的宏观特征,并在粒子层面解释相变的基本机制;能在“标准大气压”条件下识别常见相变现象(融化、汽化、凝结),并联系温度变化的作用(NRC, 2012)。 - 科学实践:使用数字温度传感器与计时工具,规划并实施加热或冷却的小型实验,采集并可视化温度数据,识别相变过程中温度平台等数据特征(NGSS Lead States, 2013)。 - 建模与论证:基于数据构建或修正简单的粒子模型,对“为何温度上升/下降导致相变”提出可证据支持的解释,并清晰表达推理过程(Mayer, 2009)。 - 信息素养与沟通:使用交互式仿真或增强现实可视化工具,对不同状态下粒子运动进行对照,并以短视频或图文科学报告准确传达结论(Bacca et al., 2014;Rutten et al., 2012)。 [01:05–01:45 画面] 屏幕展示“评价方式”(形成性与总结性)。穿插演示:平板答题、传感器数据曲线、仿真操作、作业提交界面。 旁白(教师) 学习评价(与目标对齐,强调证据与反馈): - 诊断性与形成性评价: 1) 预备概念测查:通过课堂即时投票或H5P/表单完成“相变判断题与理由选择”,用于暴露先概念与误解(Black & Wiliam, 1998)。 2) 过程性证据:在数据采集中,系统自动保存温度—时间曲线与关键截图;教师基于仪表板进行过程性反馈,聚焦测量准确性与变量控制(Hattie & Timperley, 2007)。 3) 可视化建模:在PhET“States of Matter: Basics”仿真中,学生录屏或截屏其参数设定与观察结论,提交至学习平台,作为模型证据(Rutten et al., 2012;PhET, n.d.)。 4) 同伴互评:基于简化评分量表对“数据解读—证据—论证”三个维度进行同伴提问与建议,促进模型修正(NRC, 2012)。 - 总结性评价(表现性任务): 1) 数据叙事实验报告:提交包含图表、现象描述与粒子层面解释的微型报告或1分钟解说视频,评价要点包括数据质量、解释的因果链条与模型—证据一致性。 2) 迁移性小设计:围绕“如何让冰更快融化(或让水更快凝结)”提出可操作方案,指出控制变量并预测数据表现,考查原理理解与情境迁移。 评分将采用行为可观察的量规,突出科学实践证据、论证逻辑与表达清晰度(NGSS Lead States, 2013)。 [01:45–02:05 画面] 分屏出现三类数字工具:传感器APP、PhET仿真、增强现实分子视图。以无障碍提示符号标注字幕与操作指引。 旁白(教师) 技术整合原则:我们遵循多媒体学习的证据与认知负荷调节,采用“文字—图像—互动”一致对齐的呈现方式;为不同学习者提供多元表征与操作路径(字幕、可调速播放、图形—文本对照),以降低无关负荷并提升任务相关认知加工(Mayer, 2009;CAST, 2018)。 [02:05–02:20 画面] 回到核心问题文字板:“温度改变如何引发水的相变?你的证据是什么?” 旁白(教师) 接下来,请用传感器记录你的第一组数据,并在仿真中构建初始模型。记住:我们用证据回答问题,用模型解释世界。 参考文献 - Bacca, J., Baldiris, S., Fabregat, R., & Graf, S. (2014). Augmented reality trends in education: A systematic review of research and applications. Computers & Education, 68, 119–144. - Black, P., & Wiliam, D. (1998). Assessment and classroom learning. Assessment in Education, 5(1), 7–74. - CAST. (2018). Universal Design for Learning Guidelines version 2.2. http://udlguidelines.cast.org - Hattie, J., & Timperley, H. (2007). The power of feedback. Review of Educational Research, 77(1), 81–112. - Mayer, R. E. (2009). Multimedia learning (2nd ed.). Cambridge University Press. - National Research Council (NRC). (2012). A framework for K–12 science education. National Academies Press. - NGSS Lead States. (2013). Next Generation Science Standards: For states, by states. The National Academies Press. - PhET Interactive Simulations. (n.d.). States of Matter: Basics. University of Colorado Boulder. https://phet.colorado.edu/ - Rutten, N., van Joolingen, W. R., & van der Veen, J. T. (2012). The learning effects of computer simulations in science education. Computers & Education, 58(1), 136–153.
[On-screen title] Data Visualization Micro-lecture: Multilingual Academic Opening and Data Case Introduction [Spoken—multilingual academic opening] - English: Welcome to this micro-lecture on evidence-based data visualization for scholarly communication. - Mandarin Chinese: 欢迎各位参加本次关于循证数据可视化的微课。 - Spanish: Bienvenidas y bienvenidos a esta microclase sobre visualización de datos basada en evidencia. - Arabic: أهلاً بكم في هذه المحاضرة القصيرة حول تصور البيانات القائم على الأدلة. [Spoken—purpose and scope] This session introduces foundational, empirically substantiated principles for designing effective visualizations and applies them to a real-world dataset. We will focus on how perceptual effectiveness, cognitive load management, and ethical representation jointly determine whether a visualization supports valid inference and learning (Cleveland & McGill, 1984; Mayer, 2009; Sweller, Ayres, & Kalyuga, 2011). [Spoken—learning outcomes] By the end of this micro-lecture, you should be able to: - Identify task-appropriate visual encodings—such as position, length, and color—that maximize perceptual accuracy for comparisons and trends (Cleveland & McGill, 1984; Munzner, 2014). - Reduce extraneous cognitive load in charts through principled choices of scale, annotation, and layout, thereby improving comprehension and retention (Mayer, 2009; Sweller et al., 2011). - Justify visualization design decisions with reference to established guidelines for clarity, integrity, and context, including the treatment of uncertainty and ethical considerations in presenting public data (Tufte, 2001; Cairo, 2013; Munzner, 2014). [Spoken—why this matters] Empirical research shows that the human visual system supports highly accurate judgments when data are encoded with position along a common scale, followed by length and angle, whereas encodings such as area and color hue are less precise for quantitative comparison (Cleveland & McGill, 1984; Munzner, 2014). In instructional contexts, well-designed visuals offload working memory by minimizing unnecessary elements and highlighting relevant structure, which supports deeper processing and transfer (Mayer, 2009; Sweller et al., 2011). Conversely, poor choices—such as distorted scales or clutter—can mislead interpretation and reduce trust (Tufte, 2001; Cairo, 2013). [Spoken—data case introduction] Our case study examines population-weighted exposure to fine particulate matter (PM2.5) across world regions from 1990 to 2021, using the World Health Organization’s Global Health Observatory dataset (World Health Organization [WHO], 2023). PM2.5 is measured in micrograms per cubic meter (µg/m³) and is a widely used indicator of ambient air pollution exposure with documented health relevance and clear policy implications. This dataset affords multiple visualization tasks: - Trend analysis over time within and across regions. - Comparative analysis between regions with differing exposure patterns. - Communication of thresholds and uncertainty via reference lines and interval bands, where available. [Spoken—guiding question and design preview] Guiding question: How have PM2.5 exposures evolved across selected regions, and what encodings best support accurate cross-regional trend comparison? To address this, we will contrast two alternatives: a color-saturated, multi-panel area display versus a single aligned-scale line chart with direct labeling and annotated policy thresholds. We will evaluate each against perceptual accuracy, cognitive load, and integrity criteria, grounding our choices in the literature (Cleveland & McGill, 1984; Mayer, 2009; Munzner, 2014; Tufte, 2001). [Spoken—transition] We begin by operationalizing the task: identifying the key comparisons learners must perform and selecting encodings—primarily position on a common axis and restrained color—that optimize those judgments while preserving context and reducing extraneous processing. References - Cairo, A. (2013). The functional art: An introduction to information graphics and visualization. New Riders. - Cleveland, W. S., & McGill, R. (1984). Graphical perception: Theory, experimentation, and application to the development of graphical methods. Journal of the American Statistical Association, 79(387), 531–554. https://doi.org/10.1080/01621459.1984.10478080 - Mayer, R. E. (2009). Multimedia learning (2nd ed.). Cambridge University Press. - Munzner, T. (2014). Visualization analysis and design. CRC Press. - Sweller, J., Ayres, P., & Kalyuga, S. (2011). Cognitive load theory. Springer. https://doi.org/10.1007/978-1-4419-8126-4 - Tufte, E. R. (2001). The visual display of quantitative information (2nd ed.). Graphics Press. - World Health Organization. (2023). Ambient air pollution: Mean population exposure to PM2.5 (µg/m³), 1990–2021. Global Health Observatory. https://www.who.int/data/gho (Data repository listing and metadata accessed for regional time series)
[En pantalla: título y subtítulo] Título: Concienciación en seguridad: Identificación de correos de phishing Subtítulo: Introducción y preparación para las tareas prácticas [Locución, tono formal y claro] Bienvenidas y bienvenidos. En este módulo examinaremos con rigor cómo identificar y reportar correos de phishing y, a continuación, aplicaremos estos criterios en tareas prácticas supervisadas. El phishing continúa siendo uno de los vectores predominantes de intrusión y fraude, impulsado por técnicas de ingeniería social que explotan sesgos cognitivos y contextos laborales de alta carga informativa. La evidencia reciente confirma su prevalencia y su impacto transversal en sectores públicos y privados, lo que exige competencias verificables para detectar señales tempranas y responder de manera estandarizada (Verizon, 2024; CISA, 2024; ENISA, 2023). [En pantalla: “Objetivos de aprendizaje”] Objetivos de aprendizaje: 1) Diferenciar indicadores fiables de phishing en el contenido, el remitente y los enlaces de un correo. 2) Validar la legitimidad de comunicaciones mediante técnicas de verificación no intrusivas y seguras. 3) Aplicar un protocolo de reporte institucional que preserve evidencias y minimice el riesgo. 4) Ejecutar tareas prácticas en un entorno simulado para fortalecer el juicio profesional y la transferencia a situaciones reales. [Locución] El enfoque pedagógico integra demostraciones breves y ejercicios guiados con retroalimentación inmediata. Esta secuenciación se alinea con recomendaciones internacionales para programas de concienciación eficaces, donde la práctica deliberada y el refuerzo de señales diagnósticas mejoran la discriminación entre mensajes legítimos y maliciosos (NIST, 2003; CISA, 2024). [En pantalla: “Qué entendemos por phishing” con tres viñetas] Definición operativa: - Ingeniería social por medios electrónicos que busca inducir acciones no autorizadas (p. ej., clics en enlaces maliciosos, divulgación de credenciales). - Empleo de señuelos verosímiles: urgencia, autoridad, recompensas o sanciones aparentes. - Uso de infraestructuras técnicas que ocultan origen y destino (dominios look‑alike, acortadores de URL, adjuntos con macros). [Locución] Antes de iniciar las tareas, revisaremos un conjunto de “señales de verificación” que usted aplicará de forma sistemática: - Señales en el remitente y el dominio: discrepancias ortográficas, dominios similares al legítimo y rutas de respuesta inusuales. - Señales en el contenido: urgencia artificial, solicitudes de datos sensibles, inconsistencias en estilo, tono o identidad visual. - Señales en los enlaces y adjuntos: previsualización de URL antes de acceder, extensiones de archivo de riesgo y advertencias del cliente de correo. - Procedimientos de verificación: contraste por canal alternativo confiable y uso del botón institucional de reporte de phishing cuando corresponda. [En pantalla: “Dinámica del módulo”] Dinámica del módulo: - Segmento 1: Demostración guiada con ejemplos auténticos y explicación de cada señal. - Segmento 2: Micro‑retos en un entorno seguro que emulan correos reales. Recibirá retroalimentación inmediata y justificada. - Segmento 3: Síntesis y protocolo de reporte: pasos, tiempos y responsabilidades. [Locución] La participación activa es fundamental. Al finalizar este primer segmento, se activará una breve evaluación diagnóstica de tres ítems para estimar su desempeño inicial; los resultados orientarán la personalización de los ejercicios siguientes. Por favor, mantenga el cursor sobre los enlaces para inspeccionar destinos sin hacer clic, y emplee el canal de reporte indicado por su organización para cualquier mensaje sospechoso; no reenvíe potenciales amenazas a terceros. [En pantalla: “Privacidad y ética”] - No se recopilarán credenciales ni datos personales sensibles durante las simulaciones. - Las métricas se usarán con fines formativos y de mejora continua del programa, conforme a las políticas internas. [Locución, cierre del segmento de apertura] Con estas premisas, comencemos por observar un correo de ejemplo y, paso a paso, aplicar el conjunto de señales de verificación. A partir de ahí, pasaremos a la primera tarea práctica. Referencias - CISA. (2024). Avoiding social engineering and phishing attacks. Cybersecurity and Infrastructure Security Agency. https://www.cisa.gov/news-events/news/avoiding-social-engineering-and-phishing-attacks - ENISA. (2023). ENISA threat landscape 2023. European Union Agency for Cybersecurity. https://www.enisa.europa.eu/publications/enisa-threat-landscape-2023 - NIST. (2003). Building an information technology security awareness and training program (NIST SP 800-50). National Institute of Standards and Technology. https://csrc.nist.gov/publications/detail/sp/800-50/final - Verizon. (2024). 2024 Data Breach Investigations Report. https://www.verizon.com/business/resources/reports/2024-data-breach-investigations-report/
快速产出符合课程标准的开场脚本,明确学习目标与评价方式,嵌入平台互动指引,提高首分钟留存。
为新课与系列微课生成多语种学术开场,提供案例或数据引入方案,统一品牌风格,缩短前期准备与反复。
将制度宣贯或技能培训转化为专业开场,设置情境任务与实操步骤,帮助学员迅速进入状态并明确产出。
基于教案素材生成多版本开场(问题驱动、故事化、数据导入),进行AB测试,提升完课率与测评表现。
围绕指定平台与数字工具,生成含工具选择理由与使用策略的开场,便于方案落地与教师培训。
一键输出本地化、多语种且合规的开场文本,匹配文化语境与术语,用于提词器与PPT首屏。
帮助教师、培训团队与知识创作者在短时间内产出“高可信、结构严谨、可直接开拍”的教学视频开场稿。提示词引导 AI 以教育技术专家视角工作,围绕用户给定主题与目标受众生成正式、基于证据的内容,明确学习目标与价值承诺,提出吸引注意的开场问题,呈现关键概念与场景化示例,并给出可追溯的参考来源提示与规范表述。支持多语言输出与多类教学场景,显著缩短备稿时间,提升前段留存与专业度,降低事实错误与风格不一致的风险,为个人与团队提供可复用的标准化脚本范式。
将模板生成的提示词复制粘贴到您常用的 Chat 应用(如 ChatGPT、Claude 等),即可直接对话使用,无需额外开发。适合个人快速体验和轻量使用场景。
把提示词模板转化为 API,您的程序可任意修改模板参数,通过接口直接调用,轻松实现自动化与批量处理。适合开发者集成与业务系统嵌入。
在 MCP client 中配置对应的 server 地址,让您的 AI 应用自动调用提示词模板。适合高级用户和团队协作,让提示词在不同 AI 工具间无缝衔接。
免费获取高级提示词-优惠即将到期