搜索"混合专家架构"的结果
共找到1个相关文章
DeepSeek(大模型) 百科
DeepSeek是由杭州深度求索人工智能基础技术研究有限公司研发的一系列开源大语言模型,以稀疏激活混合专家(MoE)架构和低精度训练技术为特色,通过创新的推理优化大幅降低算力需求,推动AI技术普惠化发展。
共 1 条1