gpt4 book ai didi

HuggingNews#0317:ChatGLM会成为HF趋势榜的第一名吗?

转载 作者:我是一只小鸟 更新时间:2023-03-19 14:31:37 29 4
gpt4 key购买 nike

每一周,我们的同事都会向社区的成员们发布一些关于 Hugging Face 相关的更新,包括我们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,我们将其称之为「Hugging News」,本期 Hugging News 有哪些有趣的消息,快来看看吧! 。

社区活动

全球社区的 Keras Dreambooth 活动发布

我们的全球 Hugging Face 社区正在举办一个使用 KerasCV 训练 Dreambooth 模型的活动,时间是 3 月 7 日到 4 月 1 日。欢迎大家参加! 。

  • 活动页面: https://hf.co/keras-dreambooth
  • Notebook: https://bit.ly/keras-dreambooth-sprint

同时不要忘记参加我们中国社区 与 PaddlePaddle 联合的举办的微调黑客松 ,以及 与百姓 AI 联合举办的聊天机器人黑客松活动 .

开源库更新

Diffusers 现已支持使用 ControlNet

感谢社区贡献者 Takuma Mori (@takuma104) 的巨大贡献,帮助将 ControlNet 集成到 Diffusers 中,Diffusers 现已支持使用 ControlNet。类似 Diffusers 中的其他 Pipeline,Diffusers 同样为 ControlNet 提供了 StableDiffusionControlNetPipeline 供用户使用。 StableDiffusionControlNetPipeline 的核心是 controlnet 参数,它接收用户指定的训练过的 ControlNetModel 实例作为输入,同时保持扩散模型的预训练权重不变.

更多详细情况和使用说明,请查看我们的推文: 《使用 🧨 Diffusers 实现 ControlNet 高速推理》 .

Gradio 3.20 现已发布,加入聊天机器人组件

除了聊天机器人组件,3.20 版的 Gradio 还加入了很多图像展示、下拉菜单、滑块等 UI/UX 的改进。查看 Gradio 官网了解更多: https://gradio.app/ 。

Flan UL2 已经在 Hugging Face 上开源

Google 开源的预训练大语言模型 Flan-UL2 已经发布到 Hugging Face Hub,欢迎来这里了解更多: https://hf.co/google/flan-ul2 。

与 HF API 交互的 huggingface.js 发布

使用 JavaScript 与 Hugging Face 交互,欢迎体验和贡献! https://github.com/huggingface/huggingface.js 。

内容更新

深度强化学习课程的最后一个单元内容现已发布

最后单元内容包括:基于模型的强化学习、离线与在线强化学习、RLHF(ChatGPT 背后的技术)、决策转换器、RL 中的语言模型等,快来学习吧! https://hf.co/deep-rl-course/unitbonus3/introduction 。

AI 有温度 ❤️,使用机器学习进行救灾活动支持

今年 2 月 6 日,土耳其东南部发生两次强烈地震,造成 4.2 万人死亡、12 万人受伤。一群开发者迅速创建了一个名为「灾难地图 (afetharita)」的应用,帮助搜救团队和志愿者找到幸存者。两位 Hugging Face 的同事 Merve 和 Alara 也是他们中的一份子,并帮助开设了一个 Hugging Face 组织帐户,通过 PR 进行协作,以构建基于 ML 的应用程序来接收和处理信息.

我们使用 Hugging Face Hub 上的机器学习模型,从求救者的社交媒体信息中提取地址和需求。通过与其他团队的合作,志愿者们还开发了一套用于评估地震灾区建筑和基础设施损害的遥感应用,从而为未来的搜救行动提供支持.

受限于文章篇幅,如果你想了解更细节的内容,请阅读这篇博文: https://hf.co/blog/using-ml-for-disasters 。

ChatGLM 会成为 Hugging Face 趋势榜的第一名吗

ChatGLM-6B 是一个由清华大学知识工程研究室开源的、支持中英双语问答的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存).

ChatGLM-6B 使用了和 ChatGLM 相同的技术,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62 亿参数的 ChatGLM-6B 已经能生成相当符合人类偏好的回答.

  • 来 Hugging Face 上点赞:
    https://hf.co/THUDM/chatglm-6b
  • 在线体验:
    https://hf.co/spaces/multimodalart/ChatGLM-6B

以上就是本周的 Hugging News,这里给我们的小编阿东一个大大的拥抱,并祝大家度过一个幸福愉快的周末! 。

最后此篇关于HuggingNews#0317:ChatGLM会成为HF趋势榜的第一名吗?的文章就讲到这里了,如果你想了解更多关于HuggingNews#0317:ChatGLM会成为HF趋势榜的第一名吗?的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。

29 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com