第一个愚人节玩笑,现在成真:Nvidia G-Assist今天发布——前提是您的GPU至少拥有12GB VRAM

0
5

在上一届Computex上,Nvidia宣布推出名为“G-Assist”的人工智能支持。现在,该功能的第一个版本已经推出。

距离最初的愚人节玩笑已经过去了近七年,距离实际发布也过去了大约九个月,Nvidia G-Assist 现已加入 GeForce 产品组合。

正如开发人员在新消息以及相关YouTube视频中宣布的那样,人工智能助手包含在Nvidia应用程序的11.0.3.218更新中,该更新自去年年底以来一直在取代Geforce Experience。

  • 在初始版本中,Nvidia G-Assist在一定程度上是一个人工智能聊天机器人:你可以使用常规的文本提示来询问有关硬件和如何优化硬件的问题。
  • 举个例子,它提到了对游戏过程中性能的分析。在这里,您还可以指示G-Assist调整GPU时钟,以减少帧率下降或优化游戏设置。

G-Assist 0.1 支持的 70 多个提示的完整列表可在 Nvidia 官方网站上找到。最初宣布的游戏内帮助(例如当您陷入任务困境时)尚未包含在助手中。

Nvidia G-Assist:系统要求

要使用G-Assist功能,您需要拥有至少12GB显存的GeForce显卡。在本文发布时,以下GPU与之兼容:

  • RTX 3060 12 GByte、RTX 3080 12 GByte、RTX 3080 Ti、RTX 3090 (Ti)
  • RTX 4060 Ti 16 GByte, RTX 4070 (Super), RTX 4070 Ti (Super), RTX 4080 (Super), RTX 4090
  • RTX 5070、RTX 5070 Ti、RTX 5080、RTX 5090

除了最新的应用程序更新之外,您还需要最新的GeForce驱动程序572.83和6.5GB的硬盘空间来运行基于文本的向导;语音控制还需要3GB的空间。

此外,请注意G-Assist目前仅支持英语。

Nvidia G-Assist:基于LLama的本地人工智能

然而,正如Nvidia进一步解释的那样,它并不需要互联网连接。相反,G-Assist在您的RTX图形卡上充当本地运行的AI。

  • 根据Nvidia的说法,这是通过基于Llama的指令模型实现的,该模型具有80亿个参数,仅占当今大型AI模型的一小部分。
  • 这也解释了为什么G-Assist对内存的需求如此之大:当G-Assist收到文本输入时,“Nvidia GPU会分配一部分马力用于人工智能推理”。在助手搜索适当的响应时,可能会出现短暂的停顿。

作为0.1版本,G-Assist的功能当然还处于早期阶段。然而,Nvidia不仅正在扩展其功能:开发人员还发布了一个GitHub存储库,提供示例和说明。

社区开发者可以使用它“在简单的JSON脚本中定义函数”;此外,可以将整个插件提交给Nvidia,以进行可能的集成。

例如,开发人员提到一款Twitch插件,它能够告诉你最喜欢的频道是否正在直播,并提供相关的流媒体信息——或者频道是否离线。