0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Stability AI发布大型模型SDXL 0.9,并可以运行在消费级GPU上

jf_35673951 ? 来源:jf_35673951 ? 作者:jf_35673951 ? 2023-06-26 09:41 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

AI科技俨然成为各大公司争相研究的领域,而近日Stability AI宣布,旗下文字生成图片模型SDXL 0.9已经正式发布。

据悉,SDXL 0.9是在所有开源图像模型中参数数量位居前茅,并且可以在消费级GPU上运行,还具备一个35亿参数的基础模型和一个66亿参数的附加模型。

另外Stability AI还表示,SDXL0.9中使用了两个CLIP模型,其中包括OpenCLIP vitg /14,这是迄今为止体积最大的OpenCLIP模型。凭借该模型,Stable Diffusion 可以创建深度更广、分辨率更高的逼真图像。

Stability AI同时表示,SDXL详细介绍SDXL 0.9的模规范和更多ERP(www.multiable.com.cn)参数细节,预计该模型将在7月迎来1.0正式版本,并将在GitHub开源。

审核编辑:汤梓红

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4980

    浏览量

    132120
  • AI
    AI
    +关注

    关注

    88

    文章

    35760

    浏览量

    282545
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    关于NanoEdge AI用于n-Class的问题求解

    ,但把模型的静态库加到Keil5的工程中编译后运行在STM32F407G-DISC1的开发板仿真测试时,我输入的数据不管怎么变,AI模型
    发表于 08-11 06:44

    Cognizant加速AI模型企业开发

    -Cognizant推出AI Training Data Services,助力企业AI模型加速开发 Cognizant是数据与AI
    的头像 发表于 07-31 17:25 ?240次阅读

    使用Openvino? GenAI运行Sdxl Turbo模型时遇到错误怎么解决?

    使用 OpenVINO? GenAI 运行 SDXL Turbo 模型。 遇到的错误: RuntimeError :- Check ov_tokenizer || ov_detokenizer Neither tokenizer
    发表于 06-24 06:38

    为什么无法在GPU使用INT8 和 INT4量化模型获得输出?

    安装OpenVINO? 2024.0 版本。 使用 optimum-intel 程序包将 whisper-large-v3 模型转换为 int 4 和 int8,并在 GPU 使用 OpenVINO?
    发表于 06-23 07:11

    运行在嵌入式系统的emApps

    在当今快节奏的嵌入式系统世界中,灵活性和适应性是嵌入式系统实现的关键。SEGGER推出了其最新创新:Embedded apps(emApps)应用,类似于手机上的应用程序,可以运行在嵌入式系统
    的头像 发表于 06-18 09:53 ?365次阅读
    <b class='flag-5'>运行在</b>嵌入式系统<b class='flag-5'>上</b>的emApps

    无法在GPU运行ONNX模型的Benchmark_app怎么解决?

    在 CPU 和 GPU 运行OpenVINO? 2023.0 Benchmark_app推断的 ONNX 模型。 在 CPU 推理成功
    发表于 03-06 08:02

    无法在OVMS运行来自Meta的大型语言模型 (LLM),为什么?

    无法在 OVMS 运行来自 Meta 的大型语言模型 (LLM),例如 LLaMa2。 从 OVMS GitHub* 存储库运行 lla
    发表于 03-05 08:07

    从Open Model Zoo下载的FastSeg大型公共预训练模型,无法导入名称是怎么回事?

    从 Open Model Zoo 下载的 FastSeg 大型公共预训练模型运行 converter.py 以将 FastSeg 大型模型转换为中间表示 (IR): pyth
    发表于 03-05 07:22

    AMD将DeepSeek-V3模型集成至Instinct MI300X GPU

    ,DeepSeek-V3模型经过了SGLang的强化,专门针对AI推理进行了深度优化。这意味着,当该模型运行在Instinct MI300X GPU
    的头像 发表于 02-06 09:41 ?625次阅读

    GPU是如何训练AI模型

    AI模型的训练过程中,大量的计算工作集中在矩阵乘法、向量加法和激活函数等运算上。这些运算正是GPU所擅长的。接下来,AI部落小编带您了解GPU
    的头像 发表于 12-19 17:54 ?838次阅读

    FP8数据格式在大型模型训练中的应用

    本文主要介绍了 FP8 数据格式在大型模型训练中的应用、挑战及最佳实践,展示了 FP8 在提升训练速度和效率方面的潜力和实际效果。
    的头像 发表于 11-19 14:54 ?1924次阅读
    FP8数据格式在<b class='flag-5'>大型模型</b>训练中的应用

    GPU服务器AI网络架构设计

    众所周知,在大型模型训练中,通常采用每台服务器配备多个GPU的集群架构。在上一篇文章《高性能GPU服务器AI网络架构(上篇)》中,我们对GPU
    的头像 发表于 11-05 16:20 ?1368次阅读
    <b class='flag-5'>GPU</b>服务器<b class='flag-5'>AI</b>网络架构设计

    为什么ai模型训练要用gpu

    GPU凭借其强大的并行处理能力和高效的内存系统,已成为AI模型训练不可或缺的重要工具。
    的头像 发表于 10-24 09:39 ?1084次阅读

    【「大模型时代的基础架构」阅读体验】+ 未知领域的感受

    再到大模型云平台的构建,此书都有提及和讲解,循序渐进,让读者可以由点及面,由面到体的来认识大数据模型的体系架构。 前言中,作者通过提出几个问题来引导读者阅读思考——分布式AI计算依赖哪
    发表于 10-08 10:40

    英伟达发布AI模型 Llama-3.1-Nemotron-51B AI模型

    模型在单个H100 GPU的表现非常优秀,在推理过程中可以在单个 GPU
    的头像 发表于 09-26 17:30 ?1006次阅读