首页
关于我们
产品技术
应用场景
新闻中心
加入我们
探索稀疏计算:重塑AI算力技术的新边界
在ChatGPT引领的人工智能革命中,全球正见证着AI大模型的迅猛崛起。这些拥有万亿级参数的大模型正在重塑AI的未来景象,将其从“碎片化”智能演化为“超级大脑”。然而,这一进程伴随着很大挑战:AI模型的计算需求每3.5个月便翻倍增长,对数据处理和算力的渴求不断加剧,而传统的芯片技术已濒临其物理极限。在这个算力增长的
【2024·AI领先者心声】墨芯人工智能CEO王维:需要重新定义和设计AI计算机
ChatGPT的横空出世,带来2023年全球大模型热潮。在2024年新年之际,财联社、《科创板日报》联合上海市人工智能行业协会,邀请人工智能领军者与行业精英推出“2024·AI领先者心声”系列报道,回顾过去的一年,展望新的一年AI大模型发展的机遇与挑战。稀疏计算引领者墨芯人工智能CEO王维受邀采访,他向《科创板日报》记者表示
【人民网权威认证】墨芯S30计算卡喜获“人民匠心产品奖”殊荣
近日,由人民网主办的“第二十届人民匠心奖”评选活动(以下简称“匠心奖”)正式揭晓,稀疏计算引领者墨芯人工智能旗下的产品S30计算卡荣膺“人民匠心产品奖”。墨芯获奖奖杯照片“匠心聚,百业兴”是本次“匠心奖”评选活动的主旨,充分贯彻党的二十大精神,旨在通过评选**企业、产品、技术、服务与解决方案,发挥
探索稀疏计算:重塑AI算力技术的新边界
在ChatGPT引领的人工智能革命中,全球正见证着AI大模型的迅猛崛起。这些拥有万亿级参数的大模型正在重塑AI的未来景象,将其从“碎片化”智能演化为“超级大脑”。然而,这一进程伴随着很大挑战:AI模型的计算需求每3.5个月便翻倍增长,对数据处理和算力的渴求不断加剧,而传统的芯片技术已濒临其物理极限。在这个算力增长的
前中芯国际执行副总裁汤天申博士出任墨芯人工智能执行董事
近日,稀疏计算引领者墨芯人工智能宣布了一项人事任命:半导体领域的资深专家汤天申博士正式出任执行董事一职。汤天申博士进一步深入参与公司业务运营预示着墨芯即将迎来新的发展高峰。墨芯人工智能执行董事 汤天申博士汤天申博士在半导体行业积累了超过三十年的深厚经验。他的职业生涯跨越了多个知名企业,目前担任国
墨芯完成智谱大模型适配黄金认证,助推国产算力商业化进程
在推动大模型算力量级提升的道路上,稀疏计算引领者墨芯人工智能(以下简称“墨芯”)再次迈出重要的一步。近日,墨芯旗下产品S30计算卡经过智谱AI内部专家的严格测评,荣获黄金级别认证,充分显示了其与智谱AI(以下简称“智谱”)的ChatGLM2-6B大模型在推理与微调方面的高度兼容性和卓越适配能力。墨芯获得智谱ChatGLM2-6
高交会焦点:墨芯人工智能软硬件协同解决方案,赋能未来大模型算力
近日,在***科技盛宴——中国国际高新技术成果交易会(简称“高交会”)上,墨芯人工智能(简称“墨芯”)再次成为焦点。作为深圳天使母基金的明星被投企业,墨芯在高交会“新一代信息技术展”中,集中展示了其最新AI算力成果,成为AI领域创新的缩影。墨芯人工智能展台墨芯的前沿技术,也吸引了各界领导、嘉宾的关
墨芯 S4/S30 推理加速卡通过 openEuler 社区技术评测
近期,墨芯 S4/S30 推理加速卡顺利通过了 openEuler 社区的严格技术评测,成功获得与 Intel 芯片及 openEuler 22.03 LTS 的兼容性认证。openEuler 技术评测对运行其操作系统的软硬件解决方案的兼容性进行了全面而深入的测试,涵盖了系统构建、兼容性、安全性以及性能四大核心维度,其目的在于推动软硬件整体水平的持续提升。
MLPerf首次大模型推理测评放榜,这家中国公司获世界第一
随着ChatGPT等AIGC应用掀起大模型浪潮,算力层作为基础设施,成为**受益的产业。然而,算力需求大、费用昂贵等问题,已成为企业落地大模型的普通痛点,更可能制约AI向前发展:大模型参数日益增长,而算力供给瓶颈迫在眉睫,二者形成巨大矛盾。如何探索更好的大模型算力方案,是业界共同关注的焦点。近日,全球权威测评MLP
墨芯支持Byte MLPerf,稀疏计算助力AI应用场景
在大模型趋势下,墨芯通过领先的稀疏计算优势,助力企业加速AI应用,商业化进程接连取得重要突破。近日, AI推理评测ByteMLPerf 公开了墨芯S30计算卡的评测结果。墨芯成为支持ByteMLPerf的供应商之一。墨芯是适配Byte MLPerf(推理)的供应商之一来源: Byte MLPerf网站https://github.com/bytedance/ByteMLPerf 
千亿级!墨芯公布最新大模型适配成果 @世界人工智能大会
7月6日,在世界人工智能大会WAIC上,墨芯人工智能发布了大模型算力方案的最新成果,宣告进入“千亿“阶段:墨芯AI计算平台率先支持高达千亿参数的大语言模型,并在吞吐、延时等多项指标上表现优异,创下又一里程碑。在活动现场,墨芯展台成为全场热点:1760亿参数的大语言模型Bloom在墨芯AI计算平台的推理引擎支持下,能够快
墨芯蝉联MLPerf冠军,稀疏计算释放大模型应用潜力
ChatGPT引爆大模型浪潮,也带来了算力挑战:当大模型进入大规模部署阶段,海量算力需求、推理加速等痛点,如何解决?早在2021年,Google Research和OpenAI的合作论文给出答案:《Sparse is Enough in Scaling Transformers》,证明稀疏计算能够为大模型带来数十倍加速。4月6日,全球权威AI基准评测MLPerf Inference v3.0公布
1
2
3
4
5