10月26日,高性能计算与大模型推理沙龙,OSC源创会北京站

 

大模型推理与高性能计算是当今人工智能领域中的两个重要方面。大模型通常具有数亿甚至数万亿的参数,它们在推理时需要大量的计算资源来处理输入数据并生成输出。应用使能开发套件openMind提供海量模型/数据托管能力、在线推理体验服务,同时具备模型训练、微调、评估、推理等全流程开发能力,有效支持魔乐等AI生态社区的发展。开发者通过简单的API接口即可实现微调、推理等任务,极大缩短开发周期,让开发过程更加高效简洁。10月26日(本周六),OSC源创会·北京站,openMind将带来一场关于大模型全流程关键技术的分享。

大会议程:https://www.oschina.net/m/event/2333817

高性能计算与大模型推理 · OSC源创会北京站

时间:2024年10月26日 14:00-18:00

地点:北京 朝阳 酒仙桥10号恒通国际商务园UBP西街东之所元空间

分享议题:openMind大模型平台介绍

嘉宾:王玺源/华为高级软件工程师

议题介绍:大模型技术发展日新月异,开源大模型百花齐放,面对层出不穷的模型,如何选择合适自己的,如何获取合适的数据集进行二次微调,又如何部署上线,是用户面临的一大问题和挑战。openMind大模型平台汇聚了主流的开源大模型、数据集,并提供在线应用开发和本地快速复现的能力,再配合openMind工具链软件,用户可以简单、快速的获取、生产满足需求的大模型。本议题详细介绍openMind大模型平台的功能、背后的架构、底层技术等,帮助用户使能大模型技术。

 

 

 

 

 

 

微软开源基于 Rust 的 OpenHCL 字节跳动商业化团队模型训练被“投毒”,内部人士称未影响豆包大模型 华为正式发布原生鸿蒙系统 OpenJDK 新提案:将 JDK 大小减少约 25% Node.js 23 正式发布,不再支持 32 位 Windows 系统 Linux 大规模移除疑似俄开发者,开源药丸? QUIC 在高速网络下不够快 RustDesk 远程桌面 Web 客户端 V2 预览 前端开发框架 Svelte 5 发布,历史上最重要的版本 开源日报 | 北大实习生攻击字节AI训练集群;Bitwarden进一步脱离开源;新一代MoE架构;给手机装Linux;英伟达真正的护城河是什么?
{{o.name}}
{{m.name}}

猜你喜欢

转载自my.oschina.net/u/8066678/blog/16472907