在人工智能领域取得重大进展之际,AMD 推出了 Nitro 扩散模型,旨在革新图像生成和视觉内容创作。根据 AMD 的说法,这些模型展示了 AI 技术的进步,承诺提供高质量和多功能的图像输出。
图像生成的革命
生成式 AI 领域尤其是图像生成方面经历了变革性变化,扩散模型作为优越的技术脱颖而出。这些模型能够执行复杂任务,如文本到图像合成、图像到图像转换和图像修补。AMD 的 Nitro 扩散模型的推出旨在进一步推动这些能力的边界,提供从娱乐到科学可视化等不同领域的新机会。
AMD Nitro 扩散模型
AMD 的创新模型基于两个备受赞誉的开源模型: Stable Diffusion 2.1 和 PixArt-Sigma。利用 UNet 架构并结合 CLIP 和 Diffusion Transformer 等先进的文本编码器,这些模型承诺提高效率以及图像质量。该实现利用 PyTorch、HuggingFace Accelerate 库和预计算的潜在表示来优化在 AMD Instinct MI250 加速器上的训练吞吐量。
开源和开发者参与
为了进一步推动生成式 AI 的进步,AMD 已将这些模型及其对应的代码提供给开源社区。此举邀请开发者和研究人员探索和扩展 AI 驱动的图像生成的潜力。完成的模型文件和代码说明可通过 AMD 的 Hugging Face 模型卡和 GitHub 仓库访问。同时,鼓励开发者利用 AMD 开发者云远程访问 AMD GPU 进行测试和开发。
有关这些模型的功能和性能的更多信息,AMD 提供了一篇详细的技术博客,可通过 此处访问。
Image source: Shutterstock