SF
deephub
deephub
注册登录
关注博客
注册登录
主页
关于
RSS
哪些特征导致过拟合?使用ParShap 方法精准定位导致模型泛化能力下降的关键特征
deephub
2 月 1 日
阅读 11 分钟
120
当模型在训练数据上表现良好,但在测试数据上表现不佳时,即出现“过拟合”。这意味着模型从训练数据中学习了过多的噪声模式,从而丧失了在新数据上的泛化能力。
Python GIL(全局解释器锁)机制对多线程性能影响的深度分析
deephub
1 月 31 日
阅读 4 分钟
205
在Python开发领域,GIL(Global Interpreter Lock)一直是一个广受关注的技术话题。在3.13已经默认将GIL去除,在详细介绍3.13的更亲前,我们先要留了解GIL的技术本质、其对Python程序性能的影响。本文将主要基于CPython(用C语言实现的Python解释器,也是目前应用最广泛的Python解释器)展开讨论。
深入剖析SVM核心机制:铰链损失函数的原理与代码实现
deephub
1 月 30 日
阅读 2 分钟
231
铰链损失(Hinge Loss)是支持向量机(Support Vector Machine, SVM)中最为核心的损失函数之一。该损失函数不仅在SVM中发挥着关键作用,也被广泛应用于其他机器学习模型的训练过程中。从数学角度来看,铰链损失函数提供了一种优雅的方式来量化分类器的预测性能。
十大主流联邦学习框架:技术特性、架构分析与对比研究
deephub
1 月 29 日
阅读 4 分钟
287
为推进联邦学习模型的研发与部署,业界开发了多种开源及商业框架工具。这些基础库为联邦学习的技术实践提供了核心支持,包括模型训练、数据安全保护、通信协议以及结果聚合等关键功能。随着可用工具的持续增加,选择适配具体应用场景的框架对实现最优模型性能具有决定性影响。
构建可靠的时间序列预测模型:数据泄露检测、前瞻性偏差消除与因果关系验证
deephub
1 月 28 日
阅读 13 分钟
328
数据泄露是指在预测时理论上无法获取的信息,通过某种方式影响了模型的训练过程。在时间序列分析中,由于数据的时序特性,这种问题尤为隐蔽。数据泄露会导致模型在训练阶段表现出远超其在实际生产环境中的准确性。
知识蒸馏技术原理详解:从软标签到模型压缩的实现机制
deephub
1 月 27 日
阅读 3 分钟
525
知识蒸馏是一种通过性能与模型规模的权衡来实现模型压缩的技术。其核心思想是将较大规模模型(称为教师模型)中的知识迁移到规模较小的模型(称为学生模型)中。本文将深入探讨知识迁移的具体实现机制。
Python高性能编程:五种核心优化技术的原理与Python代码
deephub
1 月 26 日
阅读 8 分钟
315
在性能要求较高的应用场景中,Python常因其执行速度不及C、C++或Rust等编译型语言而受到质疑。然而通过合理运用Python标准库提供的优化特性,我们可以显著提升Python代码的执行效率。本文将详细介绍几种实用的性能优化技术。
面向长文本的多模型协作摘要架构:多LLM文本摘要方法
deephub
1 月 25 日
阅读 6 分钟
368
多LLM摘要框架在每轮对话中包含两个基本步骤:生成和评估。这些步骤在多LLM分散式摘要和集中式摘要中有所不同。在两种策略中,k个不同的LLM都会生成多样化的文本摘要。然而在评估阶段,多LLM集中式摘要方法使用单个LLM来评估摘要并选择最佳摘要,而分散式多LLM摘要则使用k个LLM进行评估。
Meta-CoT:通过元链式思考增强大型语言模型的推理能力
deephub
1 月 24 日
阅读 6 分钟
253
大型语言模型(LLMs)在处理复杂推理任务时面临挑战,这突显了其在模拟人类认知中的不足。尽管 LLMs 擅长生成连贯文本和解决简单问题,但在需要逻辑推理、迭代方法和结果验证的复杂任务(如高级数学问题和抽象问题解决)中,其能力有所欠缺。
记忆层增强的 Transformer 架构:通过可训练键值存储提升 LLM 性能的创新方法
deephub
1 月 23 日
阅读 5 分钟
392
大语言模型(LLM)通过其参数储存了大量信息,这些信息主要以密集层中线性矩阵变换的权重形式存在。然而,参数规模的扩大必然导致计算成本和能源消耗的显著增加。
时间序列平稳性的双重假设检验:KPSS与ADF方法比较研究
deephub
1 月 22 日
阅读 3 分钟
271
在进行时间序列分析之前,确定序列的平稳性是一个关键步骤。平稳性指的是时间序列的统计特性(如均值和方差)在时间维度上保持不变。本文将详细介绍如何运用 KPSS 检验和 Dickey-Fuller 检验来验证序列的平稳性。这两种检验方法基于不同的统计假设:KPSS 检验的原假设是数据非平稳,而 Dickey-Fuller 检验则假设数据平稳。
金融波动率的多模型建模研究:GARCH族与HAR模型的Python实现与对比分析
deephub
1 月 21 日
阅读 4 分钟
342
金融资产波动率建模在现代金融工程中具有重要地位,其应用涵盖风险管理、衍生品定价和投资组合优化等核心领域。本文着重探讨三种主流波动率建模方法:广义自回归条件异方差模型(GARCH)、Glosten-Jagannathan-Runkle-GARCH模型(GJR-GARCH)以及异质自回归模型(HAR)。本文将系统阐述这些模型的理论基础,并基于标准普尔500...
时间序列分析中的状态估计:状态空间模型与卡尔曼滤波的隐状态估计
deephub
1 月 20 日
阅读 6 分钟
261
状态空间模型通过构建生成可观测数据的潜在未观测状态模型来进行时间序列分析。作为该方法论的核心,卡尔曼滤波为实时估计这些隐状态提供了一个理论完备的解决方案。本文深入探讨这些方法的理论基础和实践应用,阐述其在多领域的适用性。
提升数据科学工作流效率的10个Jupyter Notebook高级特性
deephub
1 月 18 日
阅读 2 分钟
274
Jupyter Notebooks已成为数据科学家、机器学习工程师和Python开发人员的核心开发工具。其核心优势在于提供了一个集成式环境,支持代码执行、文本编辑和数据可视化的无缝整合。尽管大多数用户熟悉其基本功能,但许多能显著提升工作效率的高级特性往往被忽视。
LossVal:一种集成于损失函数的高效数据价值评估方法
deephub
1 月 17 日
阅读 4 分钟
341
在机器学习领域,训练数据的价值并非均等:部分训练数据点对模型训练的影响显著高于其他数据点。评估单个数据点的影响程度通常需要反复重训练模型,计算效率低下。LossVal提出了一种创新方法,通过将数据价值评估过程直接集成到神经网络的损失函数中,实现了高效的数据价值评估。
Python时间序列分析:使用TSFresh进行自动化特征提取
deephub
1 月 16 日
阅读 7 分钟
479
TSFresh(基于可扩展假设检验的时间序列特征提取)是一个专门用于时间序列数据特征自动提取的框架。该框架提取的特征可直接应用于分类、回归和异常检测等机器学习任务。TSFresh通过自动化特征工程流程,显著提升了时间序列分析的效率。
Coconut:基于连续潜在空间推理,提升大语言模型推理能力的新方法
deephub
1 月 15 日
阅读 3 分钟
406
Coconut(连续思维链)提出了一种新的大语言模型推理范式,该范式在潜在空间中进行运算,利用模型隐藏层生成的连续思维状态取代传统的基于文本的推理方式。系统将这些状态以输入嵌入的形式反馈至模型,通过广度优先搜索方法同时探索多条推理路径,避免了单一路径推理的局限性。通过规避基于自然语言推理的固有效率瓶颈,...
使用Python实现基于矩阵分解的长期事件(MFLEs)时间序列分析
deephub
1 月 14 日
阅读 5 分钟
337
在现代数据分析领域,时间序列数据的处理和预测一直是一个具有挑战性的问题。随着物联网设备、金融交易系统和工业传感器的普及,我们面临着越来越多的高维时间序列数据。这些数据不仅维度高,而且往往包含复杂的时间依赖关系和潜在模式。传统的时间序列分析方法如移动平均等,在处理此类数据时往往显得力不从心。
TorchOptimizer:基于贝叶斯优化的PyTorch Lightning超参数调优框架
deephub
1 月 13 日
阅读 3 分钟
295
超参数优化是深度学习模型开发过程中的一个核心技术难点。合适的超参数组合能够显著提升模型性能,但优化过程往往需要消耗大量计算资源和时间。本文介绍TorchOptimizer,这是一个基于贝叶斯优化方法的超参数优化框架,专门用于优化PyTorch Lightning模型的超参数配置。
Python时间序列分析工具Aeon使用指南
deephub
1 月 12 日
阅读 3 分钟
312
Aeon 是一个专注于时间序列处理的开源Python库,其设计理念遵循scikit-learn的API风格,为数据科学家和研究人员提供了一套完整的时间序列分析工具。该项目保持活跃开发,截至2024年仍持续更新。
深度强化学习实战:训练DQN模型玩超级马里奥兄弟
deephub
1 月 11 日
阅读 5 分钟
289
深度学习作为当前计算机科学领域最具前沿性的研究方向之一,其应用范围涵盖了从计算机视觉到自然语言处理等多个领域。本文将探讨深度学习在游戏领域的一个具体应用:构建一个能够自主学习并完成超级马里奥兄弟的游戏的智能系统。
NeurIPS 2024最佳论文,扩散模型的创新替代:基于多尺度预测的视觉自回归架构
deephub
1 月 10 日
阅读 4 分钟
337
本文将详细解读NeurIPS 2024最佳论文:"Visual Autoregressive Modeling: Scalable Image Generation via Next-Scale Prediction(视觉自回归建模:基于下一尺度预测的可扩展图像生成)"。
PyTorch团队为TorchAO引入1-8比特量化,提升ARM平台性能
deephub
1 月 9 日
阅读 2 分钟
385
在深度学习模型部署和优化领域,计算效率与资源消耗的平衡一直是一个核心挑战。PyTorch团队针对这一问题推出了创新性的技术方案——在其原生低精度计算库TorchAO中引入低位运算符支持。这一技术突破不仅实现了1至8位精度的嵌入层权重量化,还支持了具有8位动态量化激活的线性运算符,为解决资源受限环境下的深度学习计算难...
面向强化学习的状态空间建模:RSSM的介绍和PyTorch实现
deephub
1 月 8 日
阅读 27 分钟
314
循环状态空间模型(Recurrent State Space Models, RSSM)最初由 Danijar Hafer 等人在论文《Learning Latent Dynamics for Planning from Pixels》中提出。该模型在现代基于模型的强化学习(Model-Based Reinforcement Learning, MBRL)中发挥着关键作用,其主要目标是构建可靠的环境动态预测模型。通过这些学习得到的...
增强回归模型的可解释性:基于MCMC的混合建模与特征选择方法研究
deephub
1 月 7 日
阅读 3 分钟
383
特征选择是一个识别数据集中最具相关性变量的过程,其主要目标是提升模型性能并降低系统复杂度。传统特征选择方法存在一定局限性。变量之间往往存在相互依存关系,移除某一变量可能会削弱其他变量的预测能力。
特征时序化建模:基于特征缓慢变化维度历史追踪的机器学习模型性能优化方法
deephub
1 月 6 日
阅读 4 分钟
284
我们在工作中经常会遇到一个问题,数据基础设施的设计往往没有充分考虑数据科学的需求。数据仓库或数据湖仓中的大量表格(主要是事实表和维度表)缺乏构建高性能机器学习模型所需的关键字段或结构。其中最显著的局限性在于,大多数表格仅记录观测值的当前状态,而未保留历史记录。
PyTorch FlexAttention技术实践:基于BlockMask实现因果注意力与变长序列处理
deephub
1 月 4 日
阅读 5 分钟
275
本文介绍了如何利用torch 2.5及以上版本中新引入的FlexAttention和BlockMask功能来实现因果注意力机制与填充输入的处理。
深度强化学习中SAC算法:数学原理、网络架构及其PyTorch实现
deephub
1 月 3 日
阅读 9 分钟
371
深度强化学习是人工智能领域最具挑战性的研究方向之一,其设计理念源于生物学习系统从经验中优化决策的机制。在众多深度强化学习算法中,软演员-评论家算法(Soft Actor-Critic, SAC)因其在样本效率、探索效果和训练稳定性等方面的优异表现而备受关注。
分布匹配蒸馏:扩散模型的单步生成优化方法研究
deephub
1 月 2 日
阅读 3 分钟
414
扩散模型在生成高质量图像领域具有显著优势,但其迭代去噪过程导致计算开销较大。分布匹配蒸馏(Distribution Matching Distillation,DMD)通过将多步扩散过程精简为单步生成器来解决这一问题。该方法结合分布匹配损失函数和对抗生成网络损失,实现从噪声图像到真实图像的高效映射,为快速图像生成应用提供了新的技术路...
五种被低估的非常规统计检验方法:数学原理剖析与多领域应用价值研究
deephub
1 月 1 日
阅读 10 分钟
436
在当前的数据分析实践中,研究人员往往过度依赖t检验和方差分析(ANOVA)等传统统计方法。但是还存在多种具有重要应用价值但未受到足够重视的统计检验方法,这些方法在处理复杂的实际数据时具有独特优势。本文将详细介绍五种具有重要应用价值的统计检验方法,并探讨它们在免疫学(TCR/BCR库分析)、金融数据分析和运动科...
1
(current)
2
3
4
5
…
More
下一页
1
(current)
下一页