热门角色不仅是灵感来源,更是你的效率助手。通过精挑细选的角色提示词,你可以快速生成高质量内容、提升创作灵感,并找到最契合你需求的解决方案。让创作更轻松,让价值更直接!
我们根据不同用户需求,持续更新角色库,让你总能找到合适的灵感入口。
本提示词可根据用户提供的主题和目标受众,生成结构清晰、语言通俗易懂的博客文章。通过分步式流程,深度理解需求、规划内容、优化语言,确保段落逻辑衔接、信息价值密度高,适用于技术、生活、行业分析等多种博客场景。
把“找不到笔记里记过的东西”变成“问一句就找到”。这篇文章带你用最少的概念、最简单的代码,在本地搭建一个向量数据库,把零散的 Markdown/文本笔记变成可语义检索的知识库,并在此基础上做一个轻量的 RAG(检索增强生成)问答原型。你只需要会基础 Python,不需要机器学习背景。
——读完你将收获:向量/嵌入/RAG 的大白话解释、一套可直接跑的本地方案、以及从构建到维护的完整流程。
传统搜索看“词”,语义搜索看“意思”。当你记的是“如何在 Mac 上配置虚拟环境”,但查询时只想到了“Python 项目隔离”,普通搜索可能错过它;语义检索会理解两者相关。把笔记做成向量数据库,就是为了让“意思相近”的内容更容易被找出来。
pip install -U chromadb sentence-transformers tqdm
notes/
- 开会记录.md
- todo.txt
- 项目规划.md
提示:如果有 PDF,可以先用 pypdf 提取成文本再处理,本文先聚焦 md/txt。
下面给出最小可行的本地方案:Sentence-Transformers 中文嵌入模型 + Chroma 向量数据库。步骤清晰、依赖少、可持久化。
为什么要分块?笔记很长时,整篇做嵌入容易“平均掉重点”。分成 300~500 字的小段,检索会更准。
import os, re, hashlib
from tqdm import tqdm
def load_text(path):
with open(path, "r", encoding="utf-8", errors="ignore") as f:
return f.read()
def clean_text(text):
# 简单清洗:去多余空白
text = text.replace("\u3000", " ").replace("\xa0", " ")
text = re.sub(r"[ \t]+", " ", text)
text = re.sub(r"\n{3,}", "\n\n", text)
return text.strip()
def chunk_text(text, chunk_size=400, overlap=80):
# 以字符数切分,适合中文;带少量重叠,避免句子被切断导致语义丢失
chunks = []
start = 0
n = len(text)
while start < n:
end = min(n, start + chunk_size)
chunk = text[start:end]
chunks.append(chunk.strip())
start += chunk_size - overlap
return [c for c in chunks if len(c) > 0]
def walk_notes(root="notes", exts=(".md", ".txt")):
files = []
for dirpath, _, filenames in os.walk(root):
for name in filenames:
if name.lower().endswith(exts):
files.append(os.path.join(dirpath, name))
return files
def doc_id(text, source, idx):
raw = f"{source}-{idx}-{text}".encode("utf-8")
return hashlib.sha1(raw).hexdigest()
import chromadb
from chromadb.utils import embedding_functions
# 持久化到本地目录,重启后仍可用
client = chromadb.PersistentClient(path="./chroma_db")
# 嵌入函数:首次会自动下载模型
embedding_fn = embedding_functions.SentenceTransformerEmbeddingFunction(
model_name="BAAI/bge-small-zh-v1.5"
)
# 创建或获取集合(类似“表”)
collection = client.get_or_create_collection(
name="notes",
embedding_function=embedding_fn,
)
def index_folder(notes_dir="notes"):
files = walk_notes(notes_dir)
all_ids, all_docs, all_metas = [], [], []
for path in tqdm(files, desc="Indexing"):
text = clean_text(load_text(path))
if not text:
continue
chunks = chunk_text(text, chunk_size=400, overlap=80)
for i, ch in enumerate(chunks):
all_ids.append(doc_id(ch, path, i))
all_docs.append(ch)
all_metas.append({"source": path, "chunk": i})
if all_docs:
# 去重:防止重复写入(Chroma会忽略重复ID;你也可先清空重建)
collection.add(ids=all_ids, documents=all_docs, metadatas=all_metas)
print(f"已写入 {len(all_docs)} 个文本块")
else:
print("未找到可索引的文档")
# 首次构建
index_folder("notes")
小贴士:
client.delete_collection("notes") 然后重新 get_or_create_collection。def search(query, topk=5):
result = collection.query(
query_texts=[query],
n_results=topk
)
docs = result["documents"][0]
metas = result["metadatas"][0]
return list(zip(docs, metas))
# 试试:
for i, (doc, meta) in enumerate(search("如何在项目中隔离Python环境", topk=5), 1):
print(f"#{i} {meta['source']} (chunk {meta['chunk']}):\n{doc}\n")
和“关键词搜索”不同,这里即使你没写出准确的标题或原句,也能找回意思相关的段落。
RAG 的核心是“把检索到的上下文,交给一个语言模型来组织回答”。这里给一个可运行的原型:我们先把相关片段拼接成“资料包”,再生成一个简洁的回答。如果你已经在用任意聊天模型(本地或在线),只要把这个资料包发给它,就完成了 RAG 的“增强”部分。
def build_context(query, topk=5):
hits = search(query, topk=topk)
context = "\n\n---\n\n".join([h[0] for h in hits])
sources = [h[1]["source"] for h in hits]
return context, list(dict.fromkeys(sources)) # 去重保序
def simple_answer(query, topk=5, max_chars=800):
"""
一个“无模型”的简易回答:从检索片段里提炼要点并合并。
说明:这不是生成模型,只是帮助你快速得到结构化结论。
"""
context, sources = build_context(query, topk)
# 简单提炼:取每个片段前几句作为要点
points = []
for piece in context.split("\n\n---\n\n"):
lines = [l.strip(" #*-") for l in piece.splitlines() if l.strip()]
if lines:
points.append(lines[0])
summary = ";".join(points)[:max_chars]
return summary, sources
q = "在Mac上创建并管理Python虚拟环境的步骤"
ans, srcs = simple_answer(q, topk=6)
print("问题:", q)
print("简要回答:", ans)
print("参考来源:", srcs)
如果你想接入一个聊天模型进行“生成式回答”,可以把检索到的上下文和问题拼出一个提示词,然后交给你常用的聊天接口或本地模型:
def build_prompt(question, context):
return f"""你是一个知识整理助手。根据以下“资料片段”,用简洁步骤回答用户问题。
资料片段:
{context}
问题:{question}
要求:给出清晰步骤和注意事项,列出引用来源文件名。
"""
# 示例:把 prompt 交给你自己的模型调用函数
# response = your_chat_model(generate_from=build_prompt(q, build_context(q)[0]))
这样就实现了一个可本地运行的 RAG 雏形:检索在你机器上完成,内容不出本地;是否用生成模型取决于你的选择。
index_folder(或做增量:只对新文件做分块写入)。pip install -U pip setuptools wheel。这套本地向量数据库 + 开源嵌入模型的方案,门槛低、可控强,非常适合把个人笔记升级为“会理解意思”的知识库。你已经拥有:
下一步你可以:
从今天起,让“我好像记过这个”变成“我知道去哪儿找”。愿你的笔记,越搜越聪明。
想把“月光”变“月有结余”,不需要复杂的基金组合和专业术语。你只需要四个账户、几次自动转账,就能把钱按用途分开,花钱不心虚,存钱不费力。这篇文章给你一套能在1小时内搭好的四账户法,让自动储蓄成为习惯。
把每月收入分到四个“口袋”,每个口袋只管一类支出:
为什么有效?
先不用追求完美比例,用“能活下去+能存起来”为原则,随后再微调。
小公式:日常开销 = 收入 −(储蓄 + 享乐 + 成长)
如果日常不够,先从“享乐”砍,再微调“成长”,最后再调整储蓄,但尽量守住储蓄底线。
假设你的固定支出(房租+通勤+通讯+水电)≈ 4200 元。
应急金目标:先攒到3个月生活费(4200×3≈12600 元),期间储蓄优先投向应急金。满额后,储蓄可拆分为“应急金维持+大额目标”。
发薪日后三步走
每周五分钟复盘
月末清零规则
账户准备
百分比分配(先试运行1—2个月)
每月流程
不规则支出
复盘与调整
理财不需要复杂,关键是把决策变简单、把执行变自动。用四账户法,从下一个发薪日开始,给每一块钱安排好“位置”。当你不再为“今天能不能消费”纠结,而是看着账户提示“可以/暂停”,存钱这件事,就会在不知不觉中完成。
开店难、获客贵、复购低,是许多三线城市生鲜门店面临的共性问题。好消息是,借助“社区团购”思路,加上微信生态的低成本工具,小团队也能在30天内跑通一套小而稳的运营闭环:把周边500米的家庭用户拉进一个可触达的私域群,用“预售+自提”的方式控制损耗,用“爆品+套餐”的商品结构带动客单和毛利,再用简单的数据表复盘优化,实现持续复购。本文给出一套可落地的冷启动打法,适合预算有限、人员精简、缺乏线上经验的生鲜店主与运营主管快速试点、可复制放大。
三线城市生活半径短、口碑传播快、价格敏感度高。对于单店而言,最大的挑战不是“上大平台”,而是“把周边家庭集中到一个可反复触达的阵地”,并“用最少的履约成本稳住体验”。所以冷启动的目标务必清晰、可量化:以门店为圆心800米范围,30天试点拉新入群300–500人,首单转化15%–25%,客单35–45元,综合毛利20%–25%,损耗率控制在3%以内,退款率不超过2%。只要这组指标成立,你就有了可复用的增长底盘。
冷启动不是“做一次活动”,而是把每一步变成可重复的动作。建议采用“3+4+7+7+9”的节奏跑一个30天小闭环。
这一闭环的核心是稳定的“群—下单—履约—复购”节奏。不要贪多,先把一条稳定的日线跑顺:每天同一时间发预告、同一时间截单、同一时间分拣打包、同一时间自提;顾客的习惯一旦被培养,复购自然会提升。
预算有限,尽量走0–500元的工具路线,先跑通流程,再考虑升级。
群内三段式话术模板(直接可用):
社区团购的商品策略,关键是“少而准”。建议起步不超过25个SKU,结构如下:
定价与活动建议:
示例(仅作结构参考):鸡蛋30枚29.9;土豆5斤9.9;前腿肉18.9/斤;“二口之家基础包”含叶菜2+根茎1+豆制品1+肉类1=39.9,并附3道快手菜谱。
履约是口碑的分水岭。建议以“预售+到店自提”为主,自提时间固定在居民下班后。
用这套SOP,你能把损耗压在3%以内、错单率低于1%、自提平均耗时控制在60–90秒,从而把小团队的效率拉满。
复购来自“可预期的体验+持续的小惊喜”。可从以下几个方面做加法:
用户投诉是复购的另一扇门。把投诉当成“二次触达”的契机,只要24小时内回应并给到清晰的补偿方案,多数用户会更愿意留下。
冷启动期不追求复杂报表,一张简表足够:
简单阈值用于“红线提醒”:首单转化<12%要检查爆品力度;客单<32元要检查套餐吸引力;损耗>4%要缩SKU或改安全量;退款>3%优先排查某类品控。
试点预算控制在1000元以内:海报与价格签200元、试吃与赠品300元、工具订阅300元以内、杂项200元。跑通后再考虑加大投放。
社区团购对小型生鲜店来说,不是去追风口,而是用最少的人力和预算,搭建起“稳定可触达的顾客池”和“可复用的日常运营”。先用30天跑通一个小闭环:固定节奏、少而准的SKU、清晰的自提体验、简单的数据复盘;再把这套方法复制到下一个小区群和下一个店。今天就按清单推进:建群与公告、确定3爆品与2套餐、设定截单与自提时间、做首轮拉新与试单。只要你把每天的“群—下单—履约—复盘”这条线拉直,复购与利润就会稳步上升,数字化转型也会自然地在门店日常中生根。
帮助内容创作者快速生成结构清晰、语言流畅、高度契合目标读者阅读习惯的优质博客文章,显著提升读者留存率与内容传播效果
快速产出高质量、易读性强的原创内容,节省写作时间,提升读者留存与互动率
将复杂技术概念转化为通俗易懂的博客文章,帮助非技术读者理解产品价值
高效生成兼具实用性和可读性的行业分析或产品解读内容,用于官网或社交媒体引流
将模板生成的提示词复制粘贴到您常用的 Chat 应用(如 ChatGPT、Claude 等),即可直接对话使用,无需额外开发。适合个人快速体验和轻量使用场景。
把提示词模板转化为 API,您的程序可任意修改模板参数,通过接口直接调用,轻松实现自动化与批量处理。适合开发者集成与业务系统嵌入。
在 MCP client 中配置对应的 server 地址,让您的 AI 应用自动调用提示词模板。适合高级用户和团队协作,让提示词在不同 AI 工具间无缝衔接。
免费获取高级提示词-优惠即将到期