NVIDIA AI 工作台简化了 Windows 上的 GPU 利用

realtime news  Aug 27, 2024 00:59  UTC 16:59

1 Min Read

根据NVIDIA 技术博客,NVIDIA 推出了一款免费的用户友好的开发环境管理工具 AI 工作台,用于简化跨各种系统(包括 PC、工作站、数据中心和云环境)的数据科学、机器学习(ML)和人工智能(AI)项目。

简化的开发环境

AI 工作台允许开发人员在 Windows、macOS 和 Ubuntu 等多个操作系统上创建、测试和原型化项目。它提供本地和远程系统之间的开发环境和计算任务的无缝转移,优化了成本、可用性和可扩展性。

该工具专注于改善开发人员体验,同时允许大量自定义,特别是通过使用容器,这对 GPU 加速工作非常重要。AI 工作台还与生态系统合作伙伴合作以改善用户体验。例如,它与 Canonical 合作,促进在 Windows 上使用 Ubuntu WSL 发行版进行安装。

管理 Docker 桌面安装

最新 AI 工作台版本的一个关键特性是管理 Docker 桌面的安装,这是 Windows 和 macOS 推荐使用的容器运行时。之前,设置 Docker 需要手动步骤,但与 Docker 的新合作使得可以直接从 AI 工作台界面进行无缝安装。

NVIDIA 的 AI 工作台现在自动化了多个任务,包括:

  • 安装 Docker 桌面:这消除了退出 AI 工作台安装程序手动安装 Docker 的需要。
  • 在 Windows 上配置 Docker 桌面:AI 工作台现在自动配置 Docker 桌面以使用其自己的 WSL 发行版,NVIDIA-Workbench。

新的 AI 工作台项目

最新版本还包括一些旨在帮助开发人员的新示例项目。这些项目被结构化为 Git 仓库,定义了容器化的开发环境,支持 Jupyter 和 Visual Studio Code 等 IDE。

一个值得注意的例子是 GitHub 上的 Hybrid-RAG 项目,用户可以克隆此项目并仅需几次点击即可运行 RAG 应用程序。该项目可以利用本地 GPU 或云端点进行推理。

Agentic RAG

Agentic RAG 项目集成了 AI 代理,将网络搜索工具调用集成到 RAG 流水线中,动态搜索新的在线文档以便更好地响应查询。该项目具有自定义的 Gradio 聊天应用程序,可使用各种端点(包括云和自托管微服务)运行推理。

NIM Anywhere

NIM Anywhere 是另一个重要项目,包括预配置的 RAG 聊天机器人和用于运行 NIM、Milvus 和 Redis 等服务的 Docker 自动化。它还提供了一个用于扩展项目和构建新用例的可定制前端。

微调项目

此次发布还引入了几个新模型的微调工作流,包括:

  • Mixtral 8x7B:展示了专家混合(MoE)模型的微调。
  • Llama 3 8B:展示了监督全微调和直接偏好优化(DPO)。
  • Phi-3 Mini:这是由于其小模型尺寸和量化能力而高度可访问的微调示例。
  • RTX AI 工具包:为 Windows 应用程序开发人员提供了从 NVIDIA RTX PC 到云的各种 GPU 支持的端到端工作流。

其他新功能

根据用户反馈,最新的 AI 工作台版本包括:

  • SSH 代理:为企业用户添加了对密码保护的 SSH 密钥的支持。
  • Ubuntu 24.04:扩展支持包括最新的 Ubuntu 发行版。
  • 日志记录:在 AI 工作台 CLI 中引入了支持命令,将元数据和日志导出到 zip 文件中,以便更轻松地进行故障排除。

未来发展

展望未来,NVIDIA 计划在未来的 AI 工作台版本中引入应用程序共享并简化多容器支持。这些功能旨在进一步增强协作并简化开发人员的复杂工作流。

有关 AI 工作台的更多详细信息并开始使用,请访问NVIDIA 官方技术博客



Read More