HuggingFace
-
Huggingface发布的从 1 到 1000 多个 GPU 训练集群上训练 LLMs 的全面指南
我们在多达 512 个 GPU 上进行了超过 4000 次扩展实验,并测量了吞吐量(标记大小)和 GPU 利用率(标记颜色)。需要注意的是,在本可视化中,两者都根据模型大小进行归一化。 报告地址 : https://huggingface.co/spaces/Ki-Seki/ultrascale-playbook-zh-cn
-
HuggingFace发布了自己的语言模型聊天产品HuggingChat,模型是OpenAssistant
HuggingChat是一个开源AI聊天模型项目,致力于为全球用户带来最好的聊天机器人。目前,HuggingChat的主要模型是OpenAssistant/oasst-sft-6-llama-30b,该模型已经在Open Assistant网站上发布,并建立了数据集和示例。通过HuggingChat,用户可以自由使用这些模型,以及参与机器学习算法的开发和优化。 目前中文还不太行…