• 欢迎使用千万蜘蛛池,网站外链优化,蜘蛛池引蜘蛛快速提高网站收录,收藏快捷键 CTRL + D

英伟达AI Workbench正式发布,大幅度简化大模型开发流程 - 最新智能开发工具!英伟达AI Workbench大幅度简化大模型开发流程


3月22日,英伟达在官网宣布,正式发布NVIDIA AI Workbench

AI Workbench是一款面向AI大模型开发人员的工具包,可以帮助开发人员消除很多繁琐、复杂的部署、开发流程。

无论你的技术水平如何,开发人员都可以体验快速可靠的 GPU 环境设置以及跨异构平台工作、管理和协作。

AI Workbench如何帮助开发人员提高工作效率?

免费下载地址:https://www.nvidia.com/en-us/deep-learning-ai/solutions/data-science/workbench/

AI Workbench主要功能介绍:

NVIDIA AI

AI Workbench可以快速安装和配置基于GPU的开发环境吗?

  • 快速安装、设置和配置基于GPU的开发环境。

  • 基于最新模型的预构建、即插即用的生成式人工智能和机器学习示例项目。

  • 使用NVIDIA API目录中的云端端点或本地NVIDIA NIM微服务部署生成式AI模型。

  • 直观的用户体验加上命令行界面(CLI)。

  • 易于在不同开发环境中复现和移植。

AI Workbench有哪些新增功能?

自Beta版发布以来,AI Workbench还增加了几个新的关键功能:

Visual Studio (VS) Code支持:直接集成到VS Code中,以在GPU环境中编排容器化项目。

基础镜像选择:用户在创建项目时可以选择自己的容器镜像作为项目的基础镜像。容器镜像必须使用符合基础镜像规范的镜像标签。

改进的软件包管理:用户可以通过Workbench用户界面直接管理和添加软件包到容器中。

安装改进:Windows和MacOS用户有更简单的安装路径。Docker容器运行时也得到了改进的支持。

如何利用AI Workbench在不同环境下进行开发?

AI Workbench 可以将生成式人工智能开发引入任何支持 GPU 的环境,提供统一界面,适用于数亿台现代 NVIDIA RTX 驱动的工作站和个人电脑,也适用于数据中心和云端。

Mac 用户可以安装 AI Workbench,并将项目迁移到 NVIDIA 驱动的系统,以便进行协作和获得更强大的计算能力。

NVIDIA提供一系列免费的Workbench项目示例,以帮助开发者入门:

使用混合检索增强生成(RAG)与你的文档进行交流。在你的系统上运行嵌入模型,将文档存储在私人向量数据库中。使用NVIDIA API在云端配置推理,或者在RTX系统上使用NIM推理微服务本地运行。

在任何规模上定制LLMs。从在本地运行量化模型到进行全面微调以优化精度。进行微调并在任何地方运行——在RTX系统上本地运行,或者扩展到数据中心或云端。在GitHub上查看Llama-2或Mistral-7B项目。

在RTX PC或云端上运行Stable Diffusion XL,通过文本提示生成定制图像。轻松在你选择的GPU启用环境中重现,以便用你的图像对模型进行微调。

除了快速的GPU工作站设置外,AI Workbench还提供示例项目作为一个即插即用的起点,帮助开发人员更快地开始他们的数据和用例。Workbench项目整合了所有需要的资源和元数据,以简化跨各种基础设施的工作流管理,同时促进无缝移植和可在任何地方再现性。

喜欢这篇文章吗?有什么关于AI Workbench的问题或者想要了解更多内容吗?欢迎在下方留下您的评论,感谢您的阅读、关注、点赞!

本文链接:https://www.24zzc.com/news/171116281764220.html