IT之家 3 月 27 日消息,据外媒 Tom's Hardware 报道,群联在英伟达 GDC2024 上展示了同 Maingear 合作的 aiDaptiv+ 硬件平台,可降低中小型企业 AI 模型微调训练成本。
群联表示中小型企业在模型微调训练方面面临各种困难:采用云服务不仅昂贵也存在数据隐私的不稳定性;而在本地运行又需要复杂的构建过程,电力需求也不能忽视。
而群联 aiDaptiv+ 方案采用超耐用型 aiDAPTIVCache 固态硬盘,可扩展系统的可用内存容量,容纳更大模型,同时也方便易用。
具体来说,aiDaptiv+ 包含的中间件软件库可将 GPU 显存中不活跃的 AI 模型层切片分离,在 aiDAPTIVCache 缓存固态硬盘上暂放待处理的这些切片,并将 GPU 上已完成的部分与待处理的切片交换。此过程无需对 AI 应用本身进行修改。
![]()
▲ 图源Tom's Hardware
![]()
▲ 图源 Tom's Hardware
群联表示,其 aiDaptiv+ 方案可在一台 4 卡工作站平台中完成 Llama 70b 模型的微调训练,容纳显存总量 7 倍以上的数据。
![]()
▲ 图源群联官方
而为了实现这种显存外数据存储,方案中的固态硬盘必须要有足够高的耐久。
群联此次推出的 aiDAPTIVCache 系列固态硬盘 ai100E,其采用 SLC 闪存,每根容量 2TB,拥有 5 年内 100DWPD(IT之家注:每日整盘写入次数)的写入耐久。
到此这篇ov内存卡量产工具(内存卡量产是什么意思)的文章就介绍到这了,更多相关内容请继续浏览下面的相关 推荐文章,希望大家都能在编程的领域有一番成就!版权声明:
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若内容造成侵权、违法违规、事实不符,请将相关资料发送至xkadmin@xkablog.com进行投诉反馈,一经查实,立即处理!
转载请注明出处,原文链接:https://www.xkablog.com/bcyy/51697.html