热门角色不仅是灵感来源,更是你的效率助手。通过精挑细选的角色提示词,你可以快速生成高质量内容、提升创作灵感,并找到最契合你需求的解决方案。让创作更轻松,让价值更直接!
我们根据不同用户需求,持续更新角色库,让你总能找到合适的灵感入口。
专利律师风格起草专利权利要求,确保内容准确且专业。
权利要求书 1. 一种面向边缘设备的低延迟视觉目标检测的方法,应用于包括至少一个处理器、存储器和与图像传感器电连接的硬件加速器的边缘设备,其特征在于,包括: S1:接收所述图像传感器采集的原始图像帧,并获取设备状态参数,包括上帧端到端时延、处理器与加速器占用率、供电功率上限与当前功耗、芯片温度; S2:基于预设目标时延阈值T和所述设备状态参数,计算本帧的计算预算B,并自适应确定推理配置参数,所述推理配置参数至少包括输入分辨率r、图像平铺(tile)划分与重叠宽度、主干网络深度与特征层数、早退分支的启用与阈值设置; S3:对所述原始图像帧进行预处理,包括颜色空间转换与归一化、可选的降采样与平铺;通过零拷贝缓冲或直接内存访问DMA将预处理后的图像缓冲区映射至所述硬件加速器可访问的地址空间; S4:在所述硬件加速器上执行量化神经网络推理,所述量化神经网络包括:采用深度可分离卷积与逐点卷积的轻量级主干网络;采用轻量化双向特征金字塔的特征融合模块;以及采用无锚(anchor-free)中心点热力图与边界框回归头的检测头;其中权重量化为每通道缩放的定点数,激活量化为每张量缩放的定点数,累加在高精度整数域内进行; S5:在所述主干网络的多个中间层设置早退分支,对显著目标生成候选框与类别置信度;当早退分支的输出满足基于置信度、边界框重叠度与不确定性度量的早退条件,且所述计算预算B低于预设阈值时,输出对应候选结果并跳过后续高成本层的计算; S6:对于未满足早退条件的特征,继续在所述检测头中执行中心点定位与边界框回归,得到剩余候选框与类别概率; S7:对全部候选框执行快速非极大值抑制,包括对每类别提取前K个置信度候选,并利用基于交并比矩阵的并行抑制策略进行候选过滤,以获得最终检测结果; S8:以管线化方式调度S1至S7,使图像采集、预处理、推理与后处理在多线程或多队列间并行重叠执行,并通过双缓冲减少阶段间等待; S9:根据本帧实际端到端时延与所述目标时延阈值T的偏差,更新所述计算预算B与所述推理配置参数,用于下一帧的自适应配置,以在满足T的前提下最大化检测精度。 2. 根据权利要求1所述的方法,其特征在于,S2中所述计算预算B基于如下因素联合确定:目标时延阈值T、上一帧测得的端到端时延、芯片温度与温控阈值的差值、功率上限与当前功耗的差值、硬件加速器排队深度,其中当端到端时延超出T或温度接近温控阈值时,降低所述输入分辨率r、提高早退分支阈值或减少特征层数。 3. 根据权利要求1所述的方法,其特征在于,S4中所述量化包括: - 权重量化采用每通道对称定点缩放,激活量化采用每张量非对称定点缩放; - 通过离线校准集统计激活分布并基于散度最小化策略确定截断区间,用于量化参数的确定; - 推理过程中卷积运算以8位或更低定点格式输入,在16位或更高整数精度中累加,最后以定点—浮点混合策略完成后处理。 4. 根据权利要求1所述的方法,其特征在于,S4中所述主干网络至少在部分卷积层施加结构化稀疏约束,满足N:M稀疏模式,并在部署时采用稀疏权重编码与稀疏矩阵乘运算内核以减少运算延迟。 5. 根据权利要求1所述的方法,其特征在于,S5中所述早退条件基于以下至少一项:类别概率的最大值与次大值之差、类别分布熵、边界框回归残差、预测框与上帧同位姿目标的相似度阈值。 6. 根据权利要求1所述的方法,其特征在于,S3中所述图像平铺包含基于运动估计的感兴趣区域选择:通过相邻帧间差分或光流估计确定运动区域,仅对所述运动区域以较高分辨率执行所述推理,其余区域采用较低分辨率重用上帧结果,并在平铺边界设置重叠带以减小截断误差。 7. 根据权利要求1所述的方法,其特征在于,S7中所述快速非极大值抑制采用向量化位掩码与并行化交并比矩阵计算实现近似线性时间的候选过滤,或采用矩阵NMS以减少候选两两比较的次数。 8. 根据权利要求1所述的方法,其特征在于,S3与S4中针对所述硬件加速器自动选择最优内存布局,包括NHWC与NCHW之间的选择,并通过页锁定内存、对齐加载与DMA预取实现零拷贝或单次拷贝路径。 9. 根据权利要求1所述的方法,其特征在于,S8中所述管线化调度采用环形缓冲队列与时间戳同步机制,实现图像采集线程、预处理线程、推理线程与后处理线程的有界延迟调度,并在加速器忙碌时回退至处理器上的低精度备份路径。 10. 一种边缘设备,其包括:图像传感器;至少一个处理器;存储器;以及与所述处理器和所述图像传感器可通信的硬件加速器;其特征在于,所述处理器与所述硬件加速器被配置为执行如权利要求1至9任一项所述的方法。 11. 根据权利要求10所述的边缘设备,其特征在于,所述硬件加速器为神经网络处理单元NPU、数字信号处理器DSP、图形处理单元GPU或其组合,且支持整数点积矢量指令与张量运算单元,能够在本地存储器中执行所述定点量化推理。 12. 根据权利要求10所述的边缘设备,其特征在于,所述处理器被配置为与电源管理模块与温控管理模块交互,基于所述计算预算B调整加速器与处理器的电压频率DVFS,以在满足所述目标时延阈值T的同时保持功耗与温度受限。 13. 一种用于权利要求1所述方法的模型训练与部署方法,其特征在于,包括: - 采用精度更高的教师模型对轻量级学生模型进行知识蒸馏,蒸馏损失包括类别分布蒸馏项与基于交并比的边界框回归蒸馏项; - 在量化感知训练过程中联合优化权重量化与激活量化参数,使部署后的定点模型在边缘设备上满足目标时延阈值T下的精度要求。 14. 根据权利要求1所述的方法,其特征在于,S4中所述激活函数采用分段线性近似查找表实现,并在加速器上以常量时间完成非线性运算,以降低延迟。 15. 根据权利要求1所述的方法,其特征在于,所述推理采用混合精度:卷积与矩阵乘以8位定点进行,累加以16位或32位整数进行,关键分支的归一化与最终置信度计算以16位或32位浮点进行,以在延迟与数值稳定性之间取得平衡。 16. 根据权利要求1所述的方法,其特征在于,S6中所述无锚检测头进一步输出用于非极大值抑制排序的质量评分,包括与边界框回归误差相关的质量分数或交并比预测,用于提高低延迟条件下的检出精度。 17. 根据权利要求1所述的方法,其特征在于,S2与S9形成闭环控制,控制目标为使端到端时延的分位值(包括第95或第99百分位)不超过所述目标时延阈值T,且在该约束下最大化平均精度均值mAP。 18. 根据权利要求10所述的边缘设备,其特征在于,所述存储器中存储经优化的权重编码与张量排列方案,包括通道重排与权重打包,以减少外部存储器访问次数并降低数据搬移延迟。 19. 一种非暂态计算机可读存储介质,其上存储有计算机程序,所述计算机程序在由处理器执行时,使所述处理器与硬件加速器执行如权利要求1至9任一项所述的方法。 20. 一种计算机程序产品,其包含指令,当在边缘设备上被加载并执行时,使所述边缘设备执行如权利要求1至9任一项所述的方法。
What is claimed is: 1. A computer-implemented method of federated training that yields personalized machine-learning models on a plurality of mobile devices, the method comprising: receiving, at each mobile device, from at least one parameter aggregation server, (i) a current set of shared model parameters that are subject to cross-device aggregation, (ii) an aggregation mask that distinguishes a shared parameter subset from a device-specific parameter subset, and (iii) one or more training hyperparameters; on each mobile device, executing local training that jointly updates (a) the shared parameter subset and (b) the device-specific parameter subset by minimizing a composite objective that includes: (1) an empirical loss evaluated over local training data using a model instantiated with both the shared parameter subset and the device-specific parameter subset, (2) a proximal regularization term that penalizes deviation of the updated shared parameter subset from the received shared parameter subset, and (3) a personalization coupling term that penalizes deviation of the device-specific parameter subset from a function of the shared parameter subset; forming, at each mobile device, an update message that excludes parameters identified by the aggregation mask as device-specific and that encodes a delta or gradient for at least part of the shared parameter subset; privacy-preserving the update message at each mobile device by applying secure aggregation cryptographic encapsulation and optionally injecting calibrated random noise sufficient to satisfy a specified differential-privacy budget; transmitting the privacy-preserved update messages from the plurality of mobile devices to the parameter aggregation server and aggregating, at the server without revealing individual device contributions, the update messages into an aggregated update for the shared parameter subset; updating, at the server, the shared parameter subset based at least on a weighted average of the aggregated update, the weights reflecting per-device data quantities or quality metrics; optionally partitioning, at the server, the plurality of mobile devices into two or more cohorts according to a similarity measure computed from device-provided update embeddings or statistics, and maintaining cohort-specific versions of the shared parameter subset; transmitting, from the server to each mobile device, a shared parameter subset selected for that device, and repeating the foregoing steps for one or more additional federated rounds; and deploying, at inference time on each mobile device, a personalized model instance that comprises the device’s device-specific parameter subset in combination with the most recently assigned shared parameter subset, wherein the device-specific parameter subset remains stored only on the mobile device and is not transmitted in the clear to the server. 2. The method of claim 1, wherein the proximal regularization term includes a norm-based penalty that constrains the updated shared parameter subset to remain within a bounded divergence from the received shared parameter subset to mitigate client drift. 3. The method of claim 1, wherein the personalization coupling term penalizes deviation of the device-specific parameter subset from a linear projection of the shared parameter subset, thereby encouraging alignment between representations learned by the shared and device-specific parameter subsets. 4. The method of claim 1, wherein the device-specific parameter subset comprises one or more adapter modules, low-rank factors, bias vectors, normalization statistics, or feature-wise modulation parameters that are excluded from server-side aggregation by the aggregation mask. 5. The method of claim 1, wherein the local training further comprises splitting local data into a training partition and a validation partition, determining a personalization weight coefficient by minimizing the empirical loss on the validation partition, and using the personalization weight coefficient within the composite objective. 6. The method of claim 1, wherein the forming of the update message further comprises compressing the update by at least one of sparsification, quantization, sketching, or low-rank approximation, while maintaining the exclusion of device-specific parameters specified by the aggregation mask. 7. The method of claim 1, wherein privacy-preserving the update message comprises using an additive secret-sharing or threshold cryptographic protocol such that the server obtains only an aggregated sum or average across devices and cannot reconstruct any individual device’s update. 8. The method of claim 1, wherein injecting calibrated random noise satisfies an (epsilon, delta) differential-privacy guarantee with respect to the local training data stored on each mobile device. 9. The method of claim 1, wherein the aggregating at the server is performed asynchronously with bounded staleness, and wherein the server down-weights stale updates according to an age-dependent factor. 10. The method of claim 1, wherein the similarity measure used for partitioning into cohorts comprises at least one of: cosine similarity of device update vectors, a divergence between device update statistics, or an affinity computed from a Fisher information approximation, and wherein the server maintains separate cohort-specific shared parameter subsets based on the partitioning. 11. The method of claim 1, wherein the aggregation mask is learned or adapted over federated rounds to select parameters for cross-device aggregation based on a utility metric estimated from observed reduction in validation loss or communication budget constraints. 12. The method of claim 1, further comprising selecting, by the server, a subset of the plurality of mobile devices to participate in a given federated round based on resource-awareness criteria including at least one of battery level, connectivity, compute capability, or data freshness, to meet a target training deadline or energy budget. 13. The method of claim 1, wherein the composite objective includes a term that penalizes the norm of the device-specific parameter subset to mitigate overfitting and to bound the device-side model capacity. 14. The method of claim 1, further comprising performing on-device knowledge distillation from the combined shared and device-specific parameter subsets to a compressed personalized student model for inference on the mobile device without sharing the student model off-device. 15. A system comprising: one or more servers including at least one processor and memory storing program instructions that cause the servers to distribute shared model parameters and an aggregation mask to a plurality of mobile devices, to receive privacy-preserved update messages from the plurality of mobile devices, to aggregate the update messages without reconstructing any individual device’s update, to update the shared model parameters from the aggregated update, and to provide cohort-specific or global versions of the shared model parameters to the plurality of mobile devices; and the plurality of mobile devices, each mobile device comprising a processor and a memory storing program instructions and a local dataset, the program instructions causing each mobile device to: receive the shared model parameters and aggregation mask; locally update a shared parameter subset and a device-specific parameter subset by minimizing a composite objective as recited in claim 1; form an update message that excludes the device-specific parameter subset; privacy-preserve the update message; and transmit the update message to the one or more servers; wherein the device-specific parameter subset remains stored only on the corresponding mobile device and is not transmitted in the clear to the one or more servers. 16. The system of claim 15, wherein the one or more servers are further configured to cluster the mobile devices into cohorts using a similarity measure based on update embeddings, and to maintain cohort-specific shared model parameters that are broadcast to devices according to cohort membership. 17. The system of claim 15, wherein each mobile device is further configured to adjust a personalization weight of the composite objective via a validation-driven selection procedure on a held-out local partition. 18. The system of claim 15, wherein the one or more servers implement asynchronous aggregation with bounded staleness and staleness-aware weighting, and wherein the privacy-preserving update messages are formed using secure aggregation with secret sharing or threshold cryptography. 19. A non-transitory computer-readable medium storing instructions that, when executed by one or more processors of a mobile device, cause the mobile device to: receive, from a federated learning server, shared model parameters, an aggregation mask, and hyperparameters; update, using local training data, both a shared parameter subset and a device-specific parameter subset by minimizing a composite objective including an empirical loss, a proximal regularization term on the shared parameter subset, and a personalization coupling term relating the device-specific parameter subset to the shared parameter subset; form a privacy-preserved update message that includes an update to the shared parameter subset and excludes the device-specific parameter subset according to the aggregation mask; and transmit the privacy-preserved update message to the federated learning server for aggregation, while retaining the device-specific parameter subset solely on the mobile device. 20. The non-transitory computer-readable medium of claim 19, wherein forming the privacy-preserved update message includes compressing the update via sparsification or quantization and applying differential-privacy noise calibrated to a target privacy budget.
权利要求书 1. 一种可解释的金融风控模型训练与更新的方法,其特征在于,包括以下步骤: - 数据准备与治理:采集来自至少一种金融业务系统的数据形成带有时间戳的训练数据集,所述训练数据集包括特征向量、目标标签、数据来源标识及数据血缘元数据;基于业务策略与监管要求建立特征可用性清单与敏感属性清单。 - 规则绑定与特征工程:依据业务规则与监管规范为至少一部分特征设定单调关系约束、取值约束和不可变更属性约束;对至少部分特征进行分箱、标准化或证据权重编码,以便于施加可解释性与合规性约束。 - 约束联合训练:在以预测性能为目标的损失函数基础上,引入包含以下至少两项的约束或惩罚项进行联合优化:单调性约束、模型稀疏性或复杂度约束、解释稳定性约束、群体公平性约束、局部解释一致性约束;输出满足约束的候选风控模型及其解释性摘要。 - 验证与校准:对候选模型执行跨期回溯检验与分层验证,评估至少包括区分度、校准度、稳定性、群体公平性与解释一致性的指标;在满足预设阈值的前提下完成阈值设定与概率校准,否则返回所述规则绑定与特征工程步骤进行调整。 - 漂移监测与触发:在模型上线后实时或准实时计算输入数据分布漂移、标签分布漂移与解释分布漂移的监测指标,基于预设触发条件启动增量训练或再训练,生成挑战者模型并形成差异化解释报告。 - 人机协同审批与更新:在离线或在线受控环境中对挑战者模型与当前在用的冠军模型进行A/B测试或影子对比,综合评估业务收益、风险指标与解释合规性;在达到更新门限并完成审查审批记录的情况下替换为新版本,否则维持现有版本并保留回滚点。 - 部署与可解释服务:发布评分接口与解释接口,输出个体层面的原因码、特征贡献度与可行的改进建议或反事实示例;对模型、超参数、约束、验证报告、审批记录进行版本化存档并生成完整可追溯审计日志。 - 隐私与安全(可选):在联邦学习、可信执行环境或差分隐私机制下实施所述联合训练与漂移监测中的至少一项,以降低单样本信息泄露风险并满足数据不出域的合规要求。 2. 如权利要求1所述的方法,其中,所述解释稳定性约束包括在不同时间切片或不同样本子群组之间限制特征贡献排名或贡献分布的变化幅度,所述变化通过秩相关系数、分布散度或加权重叠度中的至少一种进行量化。 3. 如权利要求1所述的方法,其中,所述局部解释一致性约束通过最大化模型输出与一种基于特征贡献度的局部解释器之间的一致性来实现,所述局部解释器为基于博弈论的特征归因方法或基于局部线性近似的方法中的至少一种。 4. 如权利要求1所述的方法,其中,所述单调性约束通过下述至少一种方式实现:对分箱后的有序特征施加单调编码;对树模型的分裂节点引入违反单调性的惩罚项;对可加性模型的分量函数施加单调性投影。 5. 如权利要求1所述的方法,其中,所述模型稀疏性或复杂度约束包括对特征选择施加L1范数约束、对树模型限定最大深度与叶子节点数、对规则集限定规则条数与前件长度中的至少一种。 6. 如权利要求1所述的方法,其中,所述群体公平性约束包括对受保护群体与对照群体之间的至少一项差异设定上限:正例率差异、机会均等差异、假阳性率差异、校准差异或通过率比。 7. 如权利要求1所述的方法,其中,所述解释分布漂移通过比较不同时段或样本子群组下的全局特征重要性向量、局部特征贡献分布或原因码频谱来度量,并基于预设的阈值触发再训练。 8. 如权利要求1所述的方法,其中,所述A/B测试或影子对比包含对固定时间窗口或分层样本的显著性检验,控制第一类错误率,更新门限至少包括净收益提升不低于预设比例、风险指标不劣化且解释稳定性指标不低于基线。 9. 如权利要求1所述的方法,其中,所述解释接口输出的原因码依据特征贡献度阈值与业务规则映射生成,且对每一拒绝或限额决定均返回至少一项可执行的改进建议或受规则约束的反事实样本。 10. 如权利要求1所述的方法,其中,所述回溯检验包括对至少两个时间切片的稳定性评估与拒绝推断处理,拒绝推断采用半监督学习、正负样本重加权或期望最大化中的至少一种。 11. 如权利要求1所述的方法,其中,所述概率校准采用等频分箱校准、等宽分箱校准或基于回归的校准方法中的至少一种,并在更新后对各子群组分别评估校准充分性。 12. 如权利要求1所述的方法,其中,所述隐私与安全包括在跨机构或跨域场景下通过参数或梯度聚合实现联邦训练,并对聚合前的更新施加差分隐私噪声预算控制或在可信执行环境内完成敏感计算。 13. 一种可解释的金融风控模型训练与更新系统,其特征在于,包括: - 数据治理模块,用于采集与清洗多源业务数据并维护数据血缘与特征可用性清单; - 规则与特征处理模块,用于设定特征约束并执行分箱、编码与相关性处理; - 约束训练模块,用于在引入单调性、稀疏性、解释稳定性、群体公平性与局部解释一致性中的至少两项约束或惩罚项的条件下训练候选模型; - 验证与校准模块,用于执行跨期回溯检验、阈值设定与概率校准并生成解释与稳健性报告; - 漂移监测模块,用于计算输入、标签与解释分布漂移指标并触发再训练; - 审批与更新模块,用于进行A/B或影子对比测试、汇总业务与合规评估、记录审批并执行版本替换或回滚; - 解释服务模块,用于对个体样本输出原因码、特征贡献度与反事实建议; - 治理与审计模块,用于对模型、参数、约束、报告、审批与运行事件进行版本化、签名与不可篡改链式存储; - 隐私与安全模块(可选),用于在联邦学习或可信执行环境中执行训练与监测并实施差分隐私控制。 14. 如权利要求13所述的系统,其中,所述漂移监测模块配置为计算人口稳定性指数、分布散度、秩相关变化或统计过程控制指标中的至少一种,并基于布尔组合触发增量训练或再训练。 15. 如权利要求13所述的系统,其中,所述解释服务模块配置为提供同步或异步的本地解释与全局解释,所述本地解释基于特征贡献度估计,所述全局解释包括特征重要性排序、规则摘要或单调性检验结果。 16. 一种计算机设备,包括处理器和存储器,所述存储器中存储有可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时,使所述计算机设备执行如权利要求1至12任一项所述的方法。 17. 一种非暂态计算机可读存储介质,其上存储有计算机程序,所述计算机程序在被处理器执行时,实现如权利要求1至12任一项所述的方法。 18. 如权利要求1至12任一项所述的方法,其中,所述模型为满足可解释性约束的评分卡模型、广义可加模型、带单调性约束的梯度提升树或带特征选择约束的逻辑回归模型中的至少一种。
把核心方案快速转为权利要求初稿,评估保护边界,准备路演材料与尽调问答,提升谈判筹码。
在紧迫期限下一键生成首版权项,提供宽窄策略对比,依据客户反馈迅速迭代,提高交付效率与质量。
建立统一撰写风格,批量起草与初审,缩短内外部报批时间,降低外包成本,提升年度申请产出。
将科研成果简述转化为可申报的权项结构,突出创新点,支撑成果转化谈判与项目评估。
中英权利要求一键切换,快速生成多地提交所需文本,减少沟通摩擦,加速国际递交流程。
在立项评审中识别可保护要点,预判规避路线,指导规格命名,降低侵权与被侵权风险。
把通用大模型即刻切换为“专利权利要求起草专家”,帮助研发、产品、法务和创业团队在极短时间内产出可用的权利要求初稿。以律师级行文和术语精度,给出结构化、可审阅、便于代理人快速二次润色的结果;支持多语言输出,满足跨区域申报准备;在保证严谨与合规表达的前提下,明确保护范围,减少来回沟通与返工,缩短从创意到递交的周期并降低整体成本。适用场景:首次申请的快速成稿、储备专利批量起草、已有说明书的权利要求补齐、海外同步申报的语言统一与风格对齐。
将模板生成的提示词复制粘贴到您常用的 Chat 应用(如 ChatGPT、Claude 等),即可直接对话使用,无需额外开发。适合个人快速体验和轻量使用场景。
把提示词模板转化为 API,您的程序可任意修改模板参数,通过接口直接调用,轻松实现自动化与批量处理。适合开发者集成与业务系统嵌入。
在 MCP client 中配置对应的 server 地址,让您的 AI 应用自动调用提示词模板。适合高级用户和团队协作,让提示词在不同 AI 工具间无缝衔接。
免费获取高级提示词-优惠即将到期