根据NVIDIA 技术博客,NVIDIA 推出了一款免费的用户友好的开发环境管理工具 AI 工作台,用于简化跨各种系统(包括 PC、工作站、数据中心和云环境)的数据科学、机器学习(ML)和人工智能(AI)项目。
简化的开发环境
AI 工作台允许开发人员在 Windows、macOS 和 Ubuntu 等多个操作系统上创建、测试和原型化项目。它提供本地和远程系统之间的开发环境和计算任务的无缝转移,优化了成本、可用性和可扩展性。
该工具专注于改善开发人员体验,同时允许大量自定义,特别是通过使用容器,这对 GPU 加速工作非常重要。AI 工作台还与生态系统合作伙伴合作以改善用户体验。例如,它与 Canonical 合作,促进在 Windows 上使用 Ubuntu WSL 发行版进行安装。
管理 Docker 桌面安装
最新 AI 工作台版本的一个关键特性是管理 Docker 桌面的安装,这是 Windows 和 macOS 推荐使用的容器运行时。之前,设置 Docker 需要手动步骤,但与 Docker 的新合作使得可以直接从 AI 工作台界面进行无缝安装。
NVIDIA 的 AI 工作台现在自动化了多个任务,包括:
- 安装 Docker 桌面:这消除了退出 AI 工作台安装程序手动安装 Docker 的需要。
- 在 Windows 上配置 Docker 桌面:AI 工作台现在自动配置 Docker 桌面以使用其自己的 WSL 发行版,NVIDIA-Workbench。
新的 AI 工作台项目
最新版本还包括一些旨在帮助开发人员的新示例项目。这些项目被结构化为 Git 仓库,定义了容器化的开发环境,支持 Jupyter 和 Visual Studio Code 等 IDE。
一个值得注意的例子是 GitHub 上的 Hybrid-RAG 项目,用户可以克隆此项目并仅需几次点击即可运行 RAG 应用程序。该项目可以利用本地 GPU 或云端点进行推理。
Agentic RAG
Agentic RAG 项目集成了 AI 代理,将网络搜索工具调用集成到 RAG 流水线中,动态搜索新的在线文档以便更好地响应查询。该项目具有自定义的 Gradio 聊天应用程序,可使用各种端点(包括云和自托管微服务)运行推理。
NIM Anywhere
NIM Anywhere 是另一个重要项目,包括预配置的 RAG 聊天机器人和用于运行 NIM、Milvus 和 Redis 等服务的 Docker 自动化。它还提供了一个用于扩展项目和构建新用例的可定制前端。
微调项目
此次发布还引入了几个新模型的微调工作流,包括:
- Mixtral 8x7B:展示了专家混合(MoE)模型的微调。
- Llama 3 8B:展示了监督全微调和直接偏好优化(DPO)。
- Phi-3 Mini:这是由于其小模型尺寸和量化能力而高度可访问的微调示例。
- RTX AI 工具包:为 Windows 应用程序开发人员提供了从 NVIDIA RTX PC 到云的各种 GPU 支持的端到端工作流。
其他新功能
根据用户反馈,最新的 AI 工作台版本包括:
- SSH 代理:为企业用户添加了对密码保护的 SSH 密钥的支持。
- Ubuntu 24.04:扩展支持包括最新的 Ubuntu 发行版。
- 日志记录:在 AI 工作台 CLI 中引入了支持命令,将元数据和日志导出到 zip 文件中,以便更轻松地进行故障排除。
未来发展
展望未来,NVIDIA 计划在未来的 AI 工作台版本中引入应用程序共享并简化多容器支持。这些功能旨在进一步增强协作并简化开发人员的复杂工作流。
有关 AI 工作台的更多详细信息并开始使用,请访问NVIDIA 官方技术博客。
Image source: Shutterstock