V 头像

V

4915 声望
他还没有填写个人简介
关注了
0
粉丝数
3
最新动态
  • 发布了文章 ·
    RAG-Gym: 基于过程监督的检索增强生成代理优化框架

    传统检索增强生成(RAG)架构因依赖静态检索机制,在处理需要顺序信息搜索的复杂问题时存在效能限制。尽管基于代理的推理与搜索方法提供了更具适应性的解决方案,但现有方法大多过度依赖提示工程技术。

    摘要图
  • 发布了文章 ·
    PyTorch PINN实战:用深度学习求解微分方程

    神经网络技术已在计算机视觉与自然语言处理等多个领域实现了突破性进展。然而在微分方程求解领域,传统神经网络因其依赖大规模标记数据集的特性而表现出明显局限性。物理信息神经网络(Physics-Informed Neural Networks, PINN)通过将物理定律直接整合到学习过程中,有效弥补了这一不足,使其成为求解常微分方程(ODE)和偏...

    摘要图
  • 发布了文章 ·
    大语言模型中的归一化技术:LayerNorm 与 RMSNorm 的深入研究

    在 LLama 等大规模 Transformer 架构的语言模型中,归一化模块是构建网络稳定性的关键组件。本文将系统分析归一化技术的必要性,并详细阐述为何原始 Transformer 架构中的 LayerNorm 在 LLama 模型中被 RMSNorm 所替代的技术原理。

    摘要图
  • 发布了文章 ·
    SigLIP 2:多语言语义理解、定位和密集特征的视觉语言编码器

    SigLIP 2 是一个新型多语言视觉-语言编码器系列,通过整合基于字幕的预训练、自监督学习机制(包括自蒸馏和掩码预测)以及在线数据管理策略,对原始 SigLIP 模型进行了显著改进。这些优化使 SigLIP 2 在零样本分类、图像-文本检索以及为视觉语言模型(VLM)提供视觉表示提取方面均取得了卓越性能。模型在定位和密集预测任...

    摘要图
  • 发布了文章 ·
    FANformer:融合傅里叶分析网络的大语言模型基础架构

    近期大语言模型(LLM)的基准测试结果引发了对现有架构扩展性的思考。尽管 OpenAI 推出的 GPT-4.5 被定位为其最强大的聊天模型,但在多项关键基准测试上的表现却不及某些规模较小的模型。DeepSeek-V3 在 AIME 2024 评测中达到了 39.2%的 Pass@1 准确率,在 SWE-bench Verified 上获得 42%的准确率,而 GPT-4.5 在这两项基...

    摘要图
  • 发布了文章 ·
    S3FT 选择性自监督微调:通过智能选择训练样本提升大模型整体表现

    选择性自我监督微调(Selective Self-to-Supervised Fine-Tuning,S3FT)是一种创新的大语言模型微调方法,该方法通过部署专门的语义等价性判断器来识别训练集中模型自身生成的正确响应。在微调过程中,S3FT 策略性地结合这些正确响应与剩余样本的标准答案(或其释义版本)来优化模型。与传统监督微调(SFT)相比,S3FT ...

    摘要图
  • 发布了文章 ·
    Visual-RFT:基于强化学习的视觉语言模型微调技术研究

    Visual-RFT 代表了视觉语言模型微调领域的技术创新,通过将基于规则的可验证奖励与强化学习相结合,有效克服了传统监督微调 (SFT) 在数据稀缺场景下的局限性。本文将深入剖析 Visual-RFT 的技术原理,结合原始研究论文中的图表解释其架构设计,并探讨该方法在实际应用场景中的潜力。Visual-RFT 的核心理念在于促进模型通...

    摘要图
  • 发布了文章 ·
    趋势还是噪声?ADF 与 KPSS 检验结果矛盾时的高级时间序列处理方法

    在时间序列分析领域,评估数据的平稳性是构建准确模型的基础。ADF(Augmented Dickey-Fuller,增广迪基-富勒检验)和 KPSS(Kwiatkowski-Phillips-Schmidt-Shin)检验是用于评估时间序列数据平稳性的两种关键统计假设检验方法。当我们遇到 ADF 检验失败而 KPSS 检验通过的情况时,这表明我们面对的是一个平稳但具有确定...

    摘要图
  • 发布了文章 ·
    深入解析图神经网络注意力机制:数学原理与可视化实现

    在图神经网络(Graph Neural Networks, GNNs)的发展历程中,注意力机制扮演着至关重要的角色。通过赋予模型关注图中最相关节点和连接的能力,注意力机制显著提升了 GNN 在节点分类、链接预测和图分类等任务上的性能。尽管这一机制的重要性不言而喻,但其内部工作原理对许多研究者和工程师而言仍是一个"黑盒"。

    摘要图
  • 发布了文章 ·
    深入解析Tiktokenizer:大语言模型中核心分词技术的原理与架构

    在快速发展的自然语言处理(NLP)领域,分词(tokenization)作为将原始文本转换为机器可处理格式的首要环节,具有不可替代的重要性。分词过程将文本分割成离散单元——即token,这些token构成了后续分析的基础,包括词嵌入(embedding)、语法解析和模型训练等多个环节。从历史视角来看,早期的文本处理方法主要依赖简单的空格...

  • 发布了文章 ·
    机器学习特征筛选:向后淘汰法原理与Python实现

    向后淘汰法(Backward Elimination)是机器学习领域中一种重要的特征选择技术,其核心思想是通过系统性地移除对模型贡献较小的特征,以提高模型性能和可解释性。该方法从完整特征集出发,逐步剔除不重要的特征,最终保留对预测结果最具影响力的变量子集。

    摘要图
  • 发布了文章 ·
    Logic-RL: 小模型也能强推理,通过基于规则的强化学习提升大语言模型结构化推理能力

    这篇论文探讨了基于规则的强化学习(RL)如何解锁 LLM 中的高级推理能力。通过在受控的逻辑谜题上进行训练并强制执行结构化的思考过程,即使是相对较小的模型也能开发出可转移的问题解决策略。这种方法不仅提高了逻辑任务的性能,而且在高级数学问题解决、软件调试和交互式 AI 助手等领域也显示出希望。

    摘要图
  • 发布了文章 ·
    Featurewiz-Polars:基于 XGBoost 的高性能特征选择框架,一行代码搞定特征选择

    特征选择作为机器学习工作流程中的关键环节,对模型性能具有决定性影响。Featurewiz 是一个功能强大的特征选择库,具备以下核心能力:

    摘要图
  • 发布了文章 ·
    用 PyTorch 从零构建 DeepSeek R1:模型架构和分步训练详解

    DeepSeek R1 的完整训练流程核心在于,在其基础模型 DeepSeek V3 之上,运用了多种强化学习策略。本文将从一个可本地运行的基础模型起步,并参照其技术报告,完全从零开始构建 DeepSeek R1,理论结合实践,逐步深入每个训练环节。通过可视化方式,由浅入深地解析 DeepSeek R1 的工作机制。

    摘要图
  • 发布了文章 ·
    DeepSeek-TS,基于状态空间增强 MLA 与 GRPO 的时序预测新框架

    本文介绍 DeepSeek-TS,该框架受到 DeepSeek 中高效的多头潜在注意力(MLA)和群组相对策略优化(GRPO)技术的启发,并将其应用于多产品时间序列预测。

    摘要图
  • 发布了文章 ·
    PyTorch Profiler性能优化示例:定位TorchMetrics收集瓶颈,提高GPU利用率

    指标收集是每个机器学习项目不可或缺的组成部分,它使我们能够跟踪模型性能并监控训练进度。理想情况下,我们希望在不给训练过程带来额外开销的前提下收集和计算指标。与训练循环的其他部分一样,低效的指标计算可能会引入不必要的开销,延长训练步骤的耗时,并增加训练成本。

    摘要图
  • 发布了文章 ·
    近端策略优化(PPO)算法的理论基础与 PyTorch 代码详解

    近端策略优化(Proximal Policy Optimization, PPO)算法作为一种高效的策略优化方法,在深度强化学习领域获得了广泛应用。特别是在大语言模型(LLM)的人类反馈强化学习(RLHF)过程中,PPO 扮演着核心角色。本文将深入探讨 PPO 的基本原理和实现细节。

    摘要图
  • 发布了文章 ·
    大语言模型的解码策略与关键优化总结

    本文系统性地阐述了大型语言模型(Large Language Models, LLMs)中的解码策略技术原理及其实践应用。通过深入分析各类解码算法的工作机制、性能特征和优化方法,为研究者和工程师提供了全面的技术参考。主要涵盖贪婪解码、束搜索、采样技术等核心解码方法,以及温度参数、惩罚机制等关键优化手段。

    摘要图
  • 发布了文章 ·
    STAR: 利用时空注意力机制和动态频率损失的视频超分辨率增强框架

    STAR (Spatial-Temporal Augmentation with Text-to-Video Models) 提出了一种创新的视频超分辨率解决方案,针对现有模型中存在的过度平滑和时间一致性不足等问题进行了系统性改进。该方法基于文本到视频(T2V)扩散模型架构,通过优化时序建模能力,有效处理复杂退化场景下的视觉伪影,同时解决了强生成模型导致的保真度...

    摘要图
  • 发布了文章 ·
    知识蒸馏方法探究:Google Distilling Step-by-Step 论文深度分析

    大型语言模型 (Large Language Models, LLMs) 的发展日新月异。从最初的简单对话系统,到如今能够执行文本生成、语言翻译和代码编写等复杂任务的先进模型,LLM 技术实现了跨越式的进步。

    摘要图
认证与成就
获得 978 次点赞
2021年08月31日 加入
极术微信服务号
关注极术微信号
实时接收点赞提醒和评论通知
安谋科技学堂公众号
关注安谋科技学堂
实时获取安谋科技及 Arm 教学资源
安谋科技招聘公众号
关注安谋科技招聘
实时获取安谋科技中国职位信息