V 头像

V

4630 声望
他还没有填写个人简介
关注了
0
粉丝数
3
最新动态
  • 发布了文章 ·
    从方向导数到梯度:深度学习中的关键数学概念详解

    对于标量函数 f(x): Rⁿ → R,其梯度由函数的偏导数构成向量场。梯度向量指向函数值增长最快的方向,其模长等于该方向的方向导数。

  • 发布了文章 ·
    基于 Huffman 树的层次化 Softmax:面向大规模神经网络的高效概率计算方法

    层次化(Hierarchial)Softmax 算法是在深度学习领域中解决大规模词嵌入训练效率问题的重要突破。该算法通过引入 Huffman 树结构,有效地将传统 Softmax 的计算复杂度从线性降至对数级别,从而在处理大规模词汇表时表现出显著的优势。

  • 发布了文章 ·
    Beta 分布与汤普森采样:智能决策系统概率采样的理论基础

    在现代技术领域算法决策优化已成为核心竞争力。Meta 通过广告位置优化提升点击率,Netflix 利用缩略图优化提升用户参与度,亚马逊依靠产品推荐系统提升销售额——这些优化的背后都采用了基于 Beta 分布的汤普森采样算法。

  • 发布了文章 ·
    从本地部署到企业级服务:十种主流 LLM 推理框架的技术介绍与对比

    大语言模型(Large Language Models, LLMs)的部署是一项具有技术挑战性的工作。随着模型架构日益复杂,以及硬件需求不断提升,部署过程变得愈发复杂。业界已经发展出多种解决方案,使 LLM 的部署和扩展变得更加便捷。从适用于个人开发的轻量级本地部署工具,到面向企业级高性能生产环境的推理引擎,各类解决方案能够满...

  • 发布了文章 ·
    Hymba: 结合注意力头和 SSM 头的创新型语言模型方案

    近年来,大语言模型(LLM)在各个领域取得了显著成效。但现有的 Transformer 架构存在计算复杂度高、内存消耗大等问题。而状态空间模型(SSM)如 Mamba 虽然具有常数复杂度和优化的硬件性能,但在记忆回溯任务上表现较弱。针对这一问题,NVIDIA 提出了 Hymba 架构,通过在同一层中结合注意力头和 SSM 头,以实现两种架构优势的互补。

    摘要图
  • 发布了文章 ·
    分布式机器学习系统:设计原理、优化策略与实践经验

    人工智能领域正在经历一场深刻的变革。随着深度学习模型的规模呈指数级增长,我们正面临着前所未有的计算挑战。当前最先进的语言模型动辄包含数千亿个参数,这种规模的模型训练已经远远超出了单机系统的处理能力。在这个背景下,分布式机器学习系统已经成为支撑现代人工智能发展的关键基础设施。

  • 发布了文章 ·
    Transformer变长序列优化:Torch FlashAttention2&xFormers解析

    随着生成式 AI(genAI)模型在应用范围和模型规模方面的持续扩展,其训练和部署所需的计算资源及相关成本也呈现显著增长趋势,模型优化对于提升运行时性能和降低运营成本变得尤为关键。作为现代 genAI 系统核心组件的 Transformer 架构及其注意力机制,由于其计算密集型的特性,成为优化的重点对象。

  • 发布了文章 ·
    图卷积网络入门:数学基础与架构设计

    数据是对现实世界的抽象表征。物理现象、人类行为模式以及自然规律都可以通过数据结构进行编码和表示。通过实现各类算法和模型,可以挖掘数据中的隐含模式,提取具有实际意义的非平凡信息。卷积神经网络(CNN)专门处理具有网格结构的数据(如图像),循环神经网络(RNN)则针对序列数据(如时间序列或文本)进行建模。...

  • 发布了文章 ·
    图神经网络在欺诈检测与蛋白质功能预测中的应用概述

    金融交易网络和蛋白质结构存在共同特征:它们在欧几里得(x, y)空间中难以建模,需要通过复杂、大规模且异构的图结构进行精确编码和表征。

  • 发布了文章 ·
    基于改进自适应分段线性近似(IAPLA)的微分方程数值解法研究: 从简单动力系统到混沌系统的应用分析

    微分方程作为一种数学工具在物理学、金融学等诸多领域的动态系统建模中发挥着关键作用。对这类方程数值解的研究一直是学术界关注的重点。

  • 发布了文章 ·
    一份写给数据工程师的 Polars 迁移指南:将 Pandas 速度提升 20 倍代码重构实践

    作为新一代数据处理框架,通过利用 Rust 语言的底层实现和现代化的并行计算架构,在处理大规模数据集时展现出显著的性能优势。根据性能测试文章的数据显示,在 CSV 文件读取操作中,

    摘要图
  • 发布了文章 ·
    Scikit-learn Pipeline 完全指南:高效构建机器学习工作流

    在机器学习工作流程中,组合估计器通过将多个转换器(Transformer)和预测器(Predictor)整合到一个管道(Pipeline)中,可以有效简化整个过程。这种方法不仅简化了数据预处理环节,还能确保处理过程的一致性,最大限度地降低数据泄露的风险。构建组合估计器最常用的工具是 Scikit-learn 提供的 Pipeline 类。

    摘要图
  • 发布了文章 ·
    IoU 已经 out 了,试试这几个变体:GIoU、DIoU 和 CIoU 介绍与对比分析

    你是否曾经训练过一个模型,在评估指标上表现出色,但在实际可视化边界框时,却发现它在许多情况下都失败了?这可能是因为像简单交并比( IoU )这样的标准指标并没有很好地捕捉到你所期望的模型行为。

    摘要图
  • 发布了文章 ·
    25 个值得关注的检索增强生成 (RAG) 模型和框架

    大型语言模型 (LLM) 如 GPT-4 彻底革新了自然语言处理 (NLP) 领域,在生成类人文本、回答问题和执行各种语言相关任务方面展现出卓越的能力。然而,这些模型也存在一些固有的局限性:

    摘要图
  • 发布了文章 ·
    LLM2CLIP:使用大语言模型提升 CLIP 的文本处理,提高长文本理解和跨语言能力

    在人工智能迅速发展的今天,多模态系统正成为推动视觉语言任务前沿发展的关键。CLIP(对比语言-图像预训练)作为其中的典范,通过将文本和视觉表示对齐到共享的特征空间,为图像-文本检索、分类和分割等任务带来了革命性突破。然而其文本编码器的局限性使其在处理复杂长文本和多语言任务时显得力不从心。

    摘要图
  • 发布了文章 ·
    解读双编码器和交叉编码器:信息检索中的向量表示与语义匹配

    在信息检索领域(即从海量数据中查找相关信息),双编码器和交叉编码器是两种至关重要的工具。它们各自拥有独特的工作机制、优势和局限性。本文将深入探讨这两种核心技术。

    摘要图
  • 发布了文章 ·
    使用 Pytorch 构建视觉语言模型(VLM)

    视觉语言模型(Vision Language Model,VLM)正在改变计算机对视觉和文本信息的理解与交互方式。本文将介绍 VLM 的核心组件和实现细节,可以让你全面掌握这项前沿技术。我们的目标是理解并实现能够通过指令微调来执行有用任务的视觉语言模型。

    摘要图
  • 发布了文章 ·
    使用 PyTorch-BigGraph 构建和部署大规模图嵌入的完整教程

    当涉及到图数据时,复杂性是不可避免的。无论是社交网络中的庞大互联关系、像 Freebase 这样的知识图谱,还是推荐引擎中海量的数据量,处理如此规模的图数据都充满挑战。

    摘要图
  • 发布了文章 ·
    SMoA: 基于稀疏混合架构的大语言模型协同优化框架

    在大语言模型(LLM)快速发展的背景下,研究者们越来越关注如何通过多代理系统来增强模型性能。传统的多代理方法虽然避免了大规模再训练的需求,但仍面临着计算效率和思维多样性的挑战。本文提出的稀疏代理混合(Sparse Mixture-of-Agents, SMoA)框架,通过借鉴稀疏专家混合(Sparse Mixture-of-Experts, SMoE)的设计理念,...

    摘要图
  • 发布了文章 ·
    为什么卷积现在不火了:CNN研究热度降温的深层原因分析

    在深度学习领域,卷积神经网络(CNN)曾经是计算机视觉的代名词。自2012年AlexNet在ImageNet竞赛中取得突破性成功以来,CNN在图像识别、目标检测等领域掀起了一场革命。然而,纵观近年的顶会论文和研究热点,我们不得不承认一个现实:CNN相关的研究论文正在减少,曾经的"主角"似乎正逐渐淡出研究者的视野。这种变化绝非...

    摘要图
认证与成就
获得 921 次点赞
2021年08月31日 加入
极术微信服务号
关注极术微信号
实时接收点赞提醒和评论通知
安谋科技学堂公众号
关注安谋科技学堂
实时获取安谋科技及 Arm 教学资源
安谋科技招聘公众号
关注安谋科技招聘
实时获取安谋科技中国职位信息