您当前所在位置:网站首页> 文章中心> 搜索到5篇“Transformer”相关的文章
1/1
大语言模型简史:从Transformer(2017)到DeepSeek-R1
大语言模型简史:从Transformer(2017)到DeepSeek-R1然而,「幻觉」问题 — —即生成内容与事实不符,甚至出现「一本正经地胡说八道」的现象 — — 成为了一个关键挑战。查看全文>>分类:科技作者:人工智能学家  点击:84  日期:2025-05-11
逐步理解 Transformers 的数学原理
逐步理解 Transformers 的数学原理Inputs and Positional Encoding。北京大学:2025 年 DeepSeek 系列报告 - 提示词工程和落地场景。查看全文>>分类:科技作者:人工智能学家  点击:113  日期:2025-05-07
混合专家架构(MoE)与 Transformer 融合的·深度解读
混合专家架构(MoE)与 Transformer 融合的·深度解读虽然面临挑战,但 MoE 与 Transformer 的融合发展前景依然十分广阔。未来,MoE 与 Transformer 的融合有望在大模型领域发挥更加重要的作用,成为推动人工智能技术发展的关键力量。查看全文>>分类:科技作者:人人都是产品经理  点击:35  日期:2025-04-26
Transformer到底解决什么问题?
Transformer到底解决什么问题?阿里妹导读本文希望围绕“Transformer到底是解决什么问题的”这个角度,阐述NLP发展以来遇到的关键问题和解法,通过这些问题引出Transformer实现原理,帮助初学者理解。查看全文>>分类:科技作者:人工智能学家  点击:15  日期:2025-04-26
从0构建大模型知识体系(4):大模型的爸爸Transformer
从0构建大模型知识体系(4):大模型的爸爸TransformerAidan Gomez:创办 Cohere,专注于企业级 NLP 模型,估值 22 亿美元,客户包括 Salesforce 和 Oracle。查看全文>>分类:科技作者:人人都是产品经理  点击:20  日期:2025-04-26
[热门品牌券] NewBrand更多>>

扫描二维码打开

周一至周六

9:00-22:00                  

淘折扣  滇ICP备2023000592号-3  滇公网安备53230102000530号   统一社会信用代码:91532300MAC2D0R706 Copyright © 2010 - 2025 https://www.bgaw.cn/ All Rights Reserved