赖佳明

@LaiJiaming11

赖佳明 暂无简介

所有 个人的 我参与的
Forks 暂停/关闭的

    赖佳明/main

    赖佳明/Tencent-Hunyuan-Large forked from 腾讯开源/Tencent-Hunyuan-Large

    随着模型规模的扩大,如何在保持高性能的同时优化资源消耗成为一个关键挑战。为了应对这一挑战,我们研究了混合专家(MoE)模型,当前亮相的Hunyuan-Large(Hunyuan-MoE-A50B)模型,这是目前业界待开源的基于Transformer的最大MoE模型,拥有3890亿总参数和520亿激活参数。

    赖佳明/warehouse

    一个菜鸟的仓库

搜索帮助