「Meet AI4S」系列直播第五期将于 12 月 10 日 19:00 准时开播,HyperAI超神经有幸邀请到了浙江大学知识引擎实验室的博士研究生王泽元,他本次分享的主题是「借助扩散去噪过程助力大模型对蛋白质的优化」。
近年来,AI for Science 发展提速,不仅为科研领域带来创新研究思路,同时也拓宽了 AI 的落地通路,为其提供了更多具有挑战性的应用场景。在这个过程中,越来越多的 AI 领域研究人员开始关注医疗、材料、生物等传统科研领域,探索其中的研究难点与行业挑战。
「有这样一台智能医疗设备,患者只需躺在智能医疗设备上便可完成从扫描、诊断、治疗、修复的全过程,实现健康的重启」。这是 2013 年上映的科幻电影「极乐空间」中的一个情节。
Apache TVM 是一个端到端的深度学习编译框架,适用于 CPU、GPU 和各种机器学习加速芯片。更多 TVM 中文文档可访问 → [链接]
手写记录是许多人在日常生活中记录灵感的方式,但如何高效地将手写内容转化为电子文本一直是一大挑战。传统的 OCR(光学字符识别)技术在处理复杂背景或不规则字迹时,准确度往往有限。
蛋白质作为生命体的关键分子,其序列决定结构,结构决定功能,蛋白质的功能与其三维结构紧密相关。数十年来,科学家们利用 X 射线晶体学、核磁共振等技术,解析了数千种蛋白质结构,为人们理解蛋白质功能提供了重要线索。然而,面对数百万级别的蛋白质数量,解析所有蛋白质结构的任务显得异常艰巨。
然而晶体材料的生成和设计过程并不简单,通常需要同时考虑离散变量和连续变量的组合。其中离散变量定义了材料的基本框架(如原子类型和初始晶格结构),而连续变量允许在这个基本框架内进行微调和优化,以最终生成具有特定物理、化学性质的晶体材料。
Triton 是一种用于并行编程的语言和编译器。它旨在提供一个基于 Python 的编程环境,以高效编写自定义 DNN 计算内核,并能够在现代 GPU 硬件上以最大吞吐量运行。
分子逆折叠在药物和材料设计中起到关键作用,使得科学家能够合成具有理想结构的新分子。过去的研究大多集中于大分子或小分子的逆折叠,但却很少关注通用分子的逆折叠。
2020 年的软银世界大会上,孙正义与黄仁勋围绕「What’s Next for AI」展开了一次围炉对谈。黄仁勋穿着标志性的皮夹克坐在火堆旁,畅谈了将 Arm 纳入麾下的重要价值,孙正义也毫不吝啬赞美之词,称老黄在未来 10 年会达到史蒂夫 · 乔布斯的成就。
被誉为城市复杂系统研究先驱之一的 Michael Batty 曾在其著作中表示,「城市本质上是复杂适应系统,其结构和功能不断演变,呈现出高度的非线性和自组织特征」。随着现代化城市的不断发展,城市系统的复杂性日益增加。
Apache TVM 是一个端到端的深度学习编译框架,适用于 CPU、GPU 和各种机器学习加速芯片。更多 TVM 中文文档可访问 → [链接]
要说谁是引领蛋白质设计的世界级大师,美国华盛顿大学的 David Baker 教授可谓是当之无愧,作为该领域的顶级专家,Baker 在蛋白质方向发表研究论文 700 余篇,引用量累计超 17.7 万。今年 10 月,因其在蛋白质设计方面的卓越贡献,Baker 还被授予 2024 年诺贝尔化学奖,他在学术界的影响力可见一斑。
在声音克隆快速发展的浪潮中,AI 已经能够模拟出越来越逼真的人声效果,但对零样本学习和多情感控制方面依然挑战重重。
「传统研究方法高度依赖于科研人员自身的特征和问题定义能力,通常采用小数据,在泛化能力和拓展能力上存疑。而 AI 研究方法则需要引入大规模、高质量数据,并采用机器学习进行特征抽取,这使得产生的科研结果在真实世界的问题中非常有效」。
Triton 是一种用于并行编程的语言和编译器。它旨在提供一个基于 Python 的编程环境,以高效编写自定义 DNN 计算内核,并能够在现代 GPU 硬件上以最大吞吐量运行。
以 ChatGPT、ChatGLM 和 LLaMA 等为代表的大语言模型已成为人们探索未知世界的有力工具,这些拥有数十亿参数的模型,通过大规模文本语料库的精心训练,在生成文本和理解上下文方面展现出强大的能力。然而,这些模型大多在一般任务中表现出色,在某些特定领域,尤其是药物研发领域,却面临着不小的挑战。
在工程应用中,如燃气轮机、核反应堆和航空推进系统,对具备优异高温机械性能的金属合金需求十分旺盛。由于材料熔点的固有限制,传统镍基 (Ni) 高温合金的耐温能力已接近极限。为满足开发高温结构材料的需求,耐火高熵合金 (RHEAs) 于 2010 年被提出,它因在 1000°C 及以上温度中保持高强度的能力而备受关注。
随着全球对可再生能源需求的日益增长,储能技术作为一种能够将能量储存起来并在需要时释放的解决方案,正受到越来越多的关注。但许多再生能源存储技术初期投资成本高,运维困难,目前仍处于研发或示范阶段。
Apache TVM 是一个端到端的深度学习编译框架,适用于 CPU、GPU 和各种机器学习加速芯片。更多 TVM 中文文档可访问 → [链接]