1. OpenAI终于Open一回:DALL-E 3论文公布、上线ChatGPT,作者一半是华人
原文:https://mp.weixin.qq.com/s/xLvJXe2FDL8YdByZLHjGMQ
打开 ChatGPT 就能用 DALL?E 3 生成图片了,OpenAI 还罕见地发布了一些技术细节。
终于,「OpenAI 又 Open 了」。在看到 OpenAI 刚刚发布的 DALL?E 3 相关论文后,一位网友感叹说。DALL?E 3 是 OpenAI 在 2023 年 9 月份发布的一个文生图模型。与上一代模型 DALL?E 2 最大的区别在于,它可以利用 ChatGPT 生成提示(prompt),然后让模型根据该提示生成图像。对于不擅长编写提示的普通人来说,这一改进大大提高了 DALL?E 3 的使用效率。此外,与 DALL?E 2 相比,DALL?E 3 生成的图质量也更高。


- 模型能力的提升主要来自于详尽的图像文本描述(image captioning);
- 他们训练了一个图像文本描述模型来生成简短而详尽的文本;
- 他们使用了 T5 文本编码器;
- 他们使用了 GPT-4 来完善用户写出的简短提示;
- 他们训练了一个 U-net 解码器,并将其蒸馏成 2 个去噪步骤;
- 文本渲染仍然不可靠,他们认为该模型很难将单词 token 映射为图像中的字母





- 使用每种类型的合成描述对性能有什么影响
- 合成描述与真值描述的最佳混合比例是多少?
- 合成与真值描述混合
- 评估方法

2. 在RTX 4090被限制的时代下,让大模型使用RLHF更高效的方法来了
原文:https://mp.weixin.qq.com/s/3I0kOE1FprOeXSEERVVBIQ
该论文介绍了一种名为 ReMax 的新算法,专为基于人类反馈的强化学习(RLHF)而设计。ReMax 在计算效率(约减少 50% 的 GPU 内存和 2 倍的训练速度提升)和实现简易性(6 行代码)上超越了最常用的算法 PPO,且性能没有损失。
- 论文链接:https://arxiv.org/abs/2310.10505
- 作者:李子牛,许天,张雨舜,俞扬,孙若愚,罗智泉
- 机构:香港中文大学(深圳),深圳市大数据研究院,南京大学,南栖仙策
- 开源代码:https://github.com/liziniu/ReMax







- ReMax 的核心部分可以用 6 行代码来实现。相比之下,PPO 要额外引入重要性采样(importance sampling),广义优势估计(generalized advantage estimation,GAE),价值模型学习等额外模块。
- ReMax 的超参数很少。相比之下,PPO 有额外的超参数,例如重要性采样剪切阈值(importance sampling clipping ratio)、GAE 系数、价值模型学习率,离策略训练轮次(off-policy training epoch)等,这些超参数都需要花大量时间去调优。
- ReMax 能理论上节省约 50% 内存。相比于 PPO,ReMax 成功移除了所有和价值模型相关的部件,大大减小了内存开销。通过计算,我们发现相比于 PPO,ReMax 能节省约 50% 内存。
- 更简单的实现:ReMax 的核心部分 6 行代码即可实现。这与 PPO 中的众多复杂的代码构建块形成鲜明对比。
- 更少的内存开销:由于移除了价值模型及其全部训练组件,相比 PPO,ReMax 节省了大约 50% 的 GPU 内存。
- 更少的超参数: ReMax 成功移除了所有和价值模型训练相关的超参数,其中包括:GAE 系数、价值模型学习率、重要性采样时期、小批量(mini-batch)大小。这些超参数往往对问题敏感且难以调整。我们相信 ReMax 对 RLHF 研究者更加友好。
- 更快的训练速度:在 GPT2(137M)的实验中,我们观察到 ReMax 在真实运行时间方面相比于 PPO 有 2.2 倍的加速。加速来自 ReMax 每次迭代中较少的计算开销。通过我们的计算,该加速优势在更大的模型上也能维持(假设在足够大的内存下 PPO 可以被成功部署)。
- 优异的性能:如前所示,ReMax在中等规模实验中与PPO实现了相当的性能,并且有时甚至超越它(可能是由于 ReMax 更容易找到合适的超参数)。我们推测这种良好的性能可以拓展到更大规模的模型中。
3. 10年市场规模1.3万亿美元,「模力时代」已来
原文:https://mp.weixin.qq.com/s/ps274X9uf_hTe0UopkGtsg大模型风暴刮了大半年,AIGC市场开始起了新的变化:酷炫的技术Demo,正在被完整的产品体验所取代。比如,OpenAI最新AI绘画模型DALL· E 3刚一登场,就跟ChatGPT强强联合,成为ChatGPT Plus里最令人期待的新生产力工具。






4. 忆阻器存算一体芯片新突破!有望促进人工智能、自动驾驶等领域发展
原文:https://mp.weixin.qq.com/s/2BbWRjpu_lreG6TEiG0XKw电子发烧友网报道(文/李弯弯)近日,清华大学集成电路学院教授吴华强、副教授高滨团队基于存算一体计算范式,研制出全球首颗全系统集成的、支持高效片上学习的忆阻器存算一体芯片,在支持片上学习的忆阻器存算一体芯片领域取得重大突破。该芯片包含支持完整片上学习所必需的全部电路模块,成功完成图像分类、语音识别和控制任务等多种片上增量学习功能验证,展示出高适应性、高能效、高通用性、高准确率等特点,有效强化智能设备在实际应用场景下的学习适应能力,有望促进人工智能、自动驾驶、可穿戴设备等领域的发展。什么是忆阻器忆阻器,全称记忆电阻器(Memristor)。它是表示磁通与电荷关系的电路器件。忆阻具有电阻的量纲,但和电阻不同的是,忆阻的阻值是由流经它的电荷确定。因此,通过测定忆阻的阻值,便可知道流经它的电荷量,从而有记忆电荷的作用。1971年,蔡少棠从逻辑和公理的观点指出,自然界应该还存在一个电路元件,它表示磁通与电荷的关系。2008年,惠普公司的研究人员首次做出纳米忆阻器件,掀起忆阻研究热潮。纳米忆阻器件的出现,有望实现非易失性随机存储器。并且,基于忆阻的随机存储器的集成度、功耗、读写速度都要比传统的随机存储器优越。此外,忆阻是硬件实现人工神经网络突触的最好方式。2012年,比勒菲尔德大学托马斯博士及其同事制作出一种具有学习能力的忆阻器。2013年,安迪·托马斯利用这种忆阻器作为人工大脑的关键部件,他的研究结果发表在《物理学学报D辑:应用物理学》杂志上。安迪·托马斯解释说,因为忆阻器与突触的这种相似性,使其成为制造人工大脑——从而打造出新一代电脑——的绝佳材料,“它使我们得以建造极为节能、耐用,同时能够自学的处理器。”托马斯的文章总结了自己的实验结果,并借鉴其他生物学和物理学研究的成果,首次阐述了这种仿神经系统的电脑如何将自然现象转化为技术系统,及其中应该遵循的几个原则。这些原则包括,忆阻器应像突触一样,“注意”到之前的电子脉冲;而且只有当刺激脉冲超过一定的量时,神经元才会做出反应,忆阻器也是如此。在国内,钱鹤、吴华强团队2012年开始研究用忆阻器来做存储,但由于忆阻器的材料器件优化和集成工艺不成熟,团队只能靠自己在实验室里摸索,在一次次失败的实验中探索提高器件的一致性和良率。两年后,清华大学与中科院微电子所、北京大学等单位合作,优化忆阻器的器件工艺,制备出高性能忆阻器阵列,成为我国率先实现忆阻器阵列大规模集成的重要基础。基于忆阻器的新型存算一体架构近些年,随着人工智能应用对计算和存储需求的不断提升,集成电路芯片技术面临诸多新挑战。一方面,摩尔定律“渐行渐远”,通过集成电路工艺微缩的方式获得算力提升越来越难;另一方面,计算与存储在不同电路单元中完成,会造成大量数据搬运的功耗,增加延迟。如何用计算存储一体化突破AI算力瓶颈,成为近年来国内外的科研热点。过去很多年里,学术界和产业界探索了多种用于实现存算一体的硬件,忆阻器被认为是极具前景的器件之一。吴华强教授此前谈到,基于忆阻器的新型存算一体架构,可以打破算力瓶颈,满足人工智能等复杂任务对计算硬件的高需求。不过,想让忆阻器阵列实现芯片的功能,还需解决器件、系统、算法等方面的瓶颈。吴华强表示,忆阻器固有的非理想特性,例如器件间波动、器件电导卡滞、电导状态漂移等,会导致计算准确率降低;此外,在架构方面,忆阻器阵列实现卷积功能需要以串行滑动的方式连续采样、计算多个输入块,无法匹配全连接结构的计算效率。从最新的研究成果来看,吴华强团队似乎解决了这些困难。该团队创新设计出适用于忆阻器存算一体的高效片上学习的新型通用算法和架构,研制出全球首颗全系统集成的、支持高效片上学习的忆阻器存算一体芯片。相同任务下,该芯片实现片上学习的能耗仅为先进工艺下专用集成电路(ASIC)系统的3%,展现出卓越的能效优势,极具满足人工智能时代高算力需求的应用潜力,为突破冯·诺依曼传统计算架构下的能效瓶颈提供了一种创新发展路径。吴华强介绍,存算一体片上学习在实现更低延迟和更低能耗的同时,能够有效保护用户隐私和数据。该芯片参照仿生类脑处理方式,可实现不同任务的快速“片上训练”与“片上识别”,能够有效完成边缘计算场景下的增量学习任务,以极低的耗电适应新场景、学习新知识,满足用户的个性化需求。小结近几年,人工智能技术的发展对算力的需求越来越高,同时传统计算架构的瓶颈也越来越明显,学术界和产业界都在积极探索新的发展模式来解决这一问题,存算一体技术凭借突出的能效比优势脱颖而出。而在实现存算一体的各类器件中,忆阻器的先天优势明显。此次清华大学研制出支持片上学习的忆阻器存算一体芯片,意义重大。
5. 美国AI芯片出口管制再升级,A800/H800禁止对大陆出口,国产GPU发展势在必行!
原文:https://mp.weixin.qq.com/s/1snqc5TKjPajcUz4ELIO6w10月17日,美国商务部工业与安全局(BIS)发布更新针对人工智能(AI)芯片的出口管制规定。该计划不仅限制英伟达等公司向中国出口先进的AI芯片,还可能阻碍ASML、应用材料、泛林和KLA等向中国销售和出口半导体制造设备。与此同时,BIS周二还在《联邦公报》刊登了一份定于10月19日发布的行政措施,准备将13家中国公司添加到出口管制名单,即所谓的“实体清单”。其中包括北京壁仞科技开发有限公司、摩尔线程智能科技(北京)有限责任公司两家中国GPU企业。英伟达A100 / A800 / H100 / H800 / L40 / L40S / RTX 4090等产品都将受限美国商务部长吉娜·雷蒙多(Gina Raimondo)称,新措施填补了去年10月发布法规中的漏洞,并表示这些措施未来可能至少每年更新一次。她表示,美国限制的目标是阻止中国获得先进的半导体,这些半导体可能推动中国人工智能和精密计算机的突破。去年10月,美国对出口中国的AI芯片实施带宽速率限制。根据当时英伟达发布的公告,美国通知该公司向中国出口A100和H100芯片将需要新的许可证要求,同时DGX或任何其他包含A100或H100芯片的产品,以及未来性能高于A100的芯片都将受到新规管制。A100是英伟达2020年推出的数据中心级云端加速芯片,支持FP16、FP32和FP64浮点运算,为人工智能、数据分析和HPC数据中心等提供算力。H100是英伟达2022年推出的最新一代数据中心GPU,H100在FP16、FP32和FP64计算上比A100快三倍,非常适用于当下流行且训练难度高的大模型。当时国内高端场景基本采用英伟达的A100,不少主流厂商也预定了计划在2022年下半年发货的H100。然而美国政府去年10月发布的法规,让这些厂商在一些高端应用上面临无合适芯片可用的局面。不过之后,英伟达向中国企业提供了替代版本A800和H800,用以解决美国商务部的半导体出口新规。根据美国商务部去年10月的发布的法规,主要限制的是显卡的算力和带宽,算力上线是4800 TOPS,带宽上线是600 GB/s。英伟达新发布的A800的带宽为400GB/s,低于A100的600GB/s,H800虽然参数未公布,但据透露只约到H100(900 GB/s)的一半。这意味着A800、H800在进行AI模型训练的时候,需要耗费更长的时间,不过相对来说,也已经很好了。然而,尽管A800、H800对关键性能进行了大幅限制。但美国政府认为,H800在某些情况下算力仍然不亚于H100。为了进一步加强对AI芯片的出口管制,美国计划用多项新的标准来替换掉之前针对“带宽参数”(Bandwidth Parameter)提出的限制,尽管这已经大大降低了AI芯片之间的通信速率,增加了AI开发的难度和成本。根据新规,美国商务部计划引入一项被称为“性能密度”(performance density)的参数,来防止企业寻找到变通的方案,修订后的出口管制措施将禁止美国企业向中国出售运行速度达到300 teraflops(即每秒可计算 3亿次运算)及以上的数据中心芯片。新措施还旨在防止企业通过Chiplet的芯片堆叠技术绕过芯片限制。针对美国政府此次发布的新规,英伟达公司依规发布了8-K文件,对出口管制做出了解释。英伟达称,此次出口管制涉及的产品包括但不限于:A100、A800、H100、H800、L40、L40S 以及RTX 4090。任何集成了一个或多个以上芯片的系统,包括但不限于英伟达DGX、HGX系统,也在新规涵盖范围之内。此外,美国政府还将要求企业获得向40多个国家/地区出售芯片的许可证,以防止中国企业从海外其他国家和地区获得先进芯片。美国政府还对中国以外的21个国家提出了芯片制造设备的许可要求,并扩大了禁止进入这些国家和地区的设备清单。同时,美国还将13家中国公司添加到出口管制名单,其中,壁仞科技、摩尔线程两家GPU企业在列。发展国产GPU等大算力芯片势在必行美国政府此次对人工智能芯片的出口管制升级,对中国相关产业发展有何影响?中国主要的互联网大厂、云服务厂商基本都依赖英伟达的GPU。尤其是近年来随着ChatGPT的出圈,国内各大互联网公司、AI企业都在大力自研AI大模型产品,这更是加大了对英伟达GPU的需求。由于去年A100就已经被禁,今年上半年各大互联网厂商都在争相采购A800。不过从目前的情况来看,新规对各大厂商短期的影响倒是不明显。多家厂商对媒体表示,已经提前接到消息,不少厂商已经预先进行囤货。一家服务器厂商的内部人士表示,公司囤了足够的量。腾讯、百度等大厂也囤货充足。一家上市公司17日晚间发布公告称,其控股子公司向其供应商采购了75台H800及22台A800现货。该公司对媒体表示,已经在两周前就解决了这个问题。国内一些大模型创业企业也已经提前做了准备,比如智谱AI,该公司表示公司囤货充足。不过依靠囤货毕竟不是长久之计,有厂商表示,虽然吞了足够的量,不过未来还是有很大压力。美国此次新规的发布意味着其对我国算力的进一步遏制,这对如今备受重视的大模型的发展也将会有所限制。从长远来看,国产GPU等大算力芯片的发展才是关键。事实上,过去这些年美国不断升级出口管制,国内企业已经逐步倾向于采用***,国内的芯片企业也在政策的支持下,下游企业更多的采用下,技术和产品也得到更多迭代,发展越来越好。比如,智谱AI虽然屯了足够的芯片,同时它也为配合国产GPU发展,同步落地GLM(通用语言模型)***适配计划,可适配10余种***等。当前,国内已经有一些芯片可以支持大模型的训练和推理,长此发展下去,未来的性能、生态也一定会越来越成熟。从美国此次新规将壁仞科技、摩尔线程等公司列入实体清单,可以看出美国对中国GPU芯片快速发展的担忧。当然这也意味着,未来中国大算力芯片的进一步突破,也将面临着更大的困难,这需要设备、制造等产业链各环节的同步升级。小结为了阻止中国先进技术的发展,美国无休止的实施出口管制。这确实在短期内阻碍了一些企业的发展,不过从过去几年的情况来看,美国的出口限制,也进一步促进了中国芯片产业的发展。未来,中国企业也同样会不断进行探索,以应对美方的打压。除了对中国企业造成影响之外,美方不当管制严重阻碍了各国芯片及芯片设备、材料、零部件企业正常经贸往来,严重破坏了市场规则和国际经贸秩序,威胁到全球产业链供应链稳定。美国自己的企业也损失巨大,比如英伟达,虽然该公司表示短期内财务业务新规影响较小,但是要知道其接近50%的收入来自中国,此次新规将几乎阻断英伟达大部分中国业务的开展。除此之外,因为美国的不当管制,其他国家的半导体企业也深受其害。
6. 超火迷你GPT-4视觉能力暴涨,GitHub两万星,华人团队出品
原文:https://mp.weixin.qq.com/s/nG3otCtN1mwSHKXEw-0vxwGPT-4V来做目标检测?网友实测:还没有准备好。












———————End———————
点击阅读原文进入官网
原文标题:【AI简报20231020期】出自华人之手:DALL-E 3论文公布、上线ChatGPT!超火迷你GPT-4
文章出处:【微信公众号:RTThread物联网操作系统】欢迎添加关注!文章转载请注明出处。
-
RT-Thread
+关注
关注
32文章
1440浏览量
42358
原文标题:【AI简报20231020期】出自华人之手:DALL-E 3论文公布、上线ChatGPT!超火迷你GPT-4
文章出处:【微信号:RTThread,微信公众号:RTThread物联网操作系统】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
OpenAI或在周五凌晨发布GPT-5 OpenAI以低价向美国政府提供ChatGPT
AI真会人格分裂!OpenAI最新发现,ChatGPT善恶开关已开启

树莓派 也能搞 AI 艺术?树莓派遇上DALL-E,开启你的 AI 艺术创作之旅!

从性能到商业,Grok3、GPT-4o、DeepSeek如何重塑AI版图?

OpenAI简化大模型选择:萨姆·奥特曼制定路线图
ChatGPT Plus 2025新功能抢先看:如何订阅与使用全攻略
OpenAI即将发布GPT-4.5与GPT-5
OpenAI将发布更智能GPT模型及AI智能体工具
一文说清楚什么是AI大模型


评论