AI科技俨然成为各大公司争相研究的领域,而近日Stability AI宣布,旗下文字生成图片模型SDXL 0.9已经正式发布。
据悉,SDXL 0.9是在所有开源图像模型中参数数量位居前茅,并且可以在消费级GPU上运行,还具备一个35亿参数的基础模型和一个66亿参数的附加模型。
另外Stability AI还表示,SDXL0.9中使用了两个CLIP模型,其中包括OpenCLIP vitg /14,这是迄今为止体积最大的OpenCLIP模型。凭借该模型,Stable Diffusion 可以创建深度更广、分辨率更高的逼真图像。
Stability AI同时表示,SDXL详细介绍SDXL 0.9的模规范和更多ERP(www.multiable.com.cn)参数细节,预计该模型将在7月迎来1.0正式版本,并将在GitHub开源。
审核编辑:汤梓红
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
举报投诉
-
gpu
+关注
关注
28文章
4980浏览量
132120 -
AI
+关注
关注
88文章
35760浏览量
282545
发布评论请先 登录
相关推荐
热点推荐
关于NanoEdge AI用于n-Class的问题求解
,但把模型的静态库加到Keil5的工程中编译后运行在STM32F407G-DISC1的开发板上仿真测试时,我输入的数据不管怎么变,AI模型输
发表于 08-11 06:44
Cognizant加速AI模型企业级开发
-Cognizant推出AI Training Data Services,助力企业级AI模型加速开发 Cognizant是数据与AI
使用Openvino? GenAI运行Sdxl Turbo模型时遇到错误怎么解决?
使用 OpenVINO? GenAI 运行 SDXL Turbo 模型。
遇到的错误: RuntimeError :- Check ov_tokenizer || ov_detokenizer
Neither tokenizer
发表于 06-24 06:38
为什么无法在GPU上使用INT8 和 INT4量化模型获得输出?
安装OpenVINO? 2024.0 版本。
使用 optimum-intel 程序包将 whisper-large-v3 模型转换为 int 4 和 int8,并在 GPU 上使用 OpenVINO?
发表于 06-23 07:11
运行在嵌入式系统上的emApps
在当今快节奏的嵌入式系统世界中,灵活性和适应性是嵌入式系统实现的关键。SEGGER推出了其最新创新:Embedded apps(emApps)应用,类似于手机上的应用程序,可以运行在嵌入式系统上。

无法在GPU上运行ONNX模型的Benchmark_app怎么解决?
在 CPU 和 GPU 上运行OpenVINO? 2023.0 Benchmark_app推断的 ONNX 模型。
在 CPU 上推理成功
发表于 03-06 08:02
无法在OVMS上运行来自Meta的大型语言模型 (LLM),为什么?
无法在 OVMS 上运行来自 Meta 的大型语言模型 (LLM),例如 LLaMa2。
从 OVMS GitHub* 存储库运行 lla
发表于 03-05 08:07
从Open Model Zoo下载的FastSeg大型公共预训练模型,无法导入名称是怎么回事?
从 Open Model Zoo 下载的 FastSeg 大型公共预训练模型。
运行 converter.py 以将 FastSeg 大型模型转换为中间表示 (IR):
pyth
发表于 03-05 07:22
AMD将DeepSeek-V3模型集成至Instinct MI300X GPU
,DeepSeek-V3模型经过了SGLang的强化,专门针对AI推理进行了深度优化。这意味着,当该模型运行在Instinct MI300X GPU
GPU是如何训练AI大模型的
在AI模型的训练过程中,大量的计算工作集中在矩阵乘法、向量加法和激活函数等运算上。这些运算正是GPU所擅长的。接下来,AI部落小编带您了解GPU
【「大模型时代的基础架构」阅读体验】+ 未知领域的感受
再到大模型云平台的构建,此书都有提及和讲解,循序渐进,让读者可以由点及面,由面到体的来认识大数据模型的体系架构。
前言中,作者通过提出几个问题来引导读者阅读思考——分布式AI计算依赖哪
发表于 10-08 10:40
英伟达发布AI模型 Llama-3.1-Nemotron-51B AI模型
模型在单个H100 GPU上的表现非常优秀,在推理过程中可以在单个 GPU 上
评论