前回のComputexで、Nvidiaは「G-Assist」と呼ばれるAIサポートを発表しました。そして今、この機能の最初のバージョンが利用可能になりました。
エイプリルフールに投稿されたジョークからほぼ7年、実際の発表から約9か月後、Nvidia G-Assistは現在GeForceポートフォリオの一部となっています。
開発者たちが新しいメッセージで発表したように、関連するYouTube動画とともに、AIアシスタントは昨年末からGeforce Experienceに代わって提供されているNvidiaアプリのアップデート11.0.3.218に含まれています。
- 初期バージョンでは、Nvidia G-Assistはある程度AIチャットボットのようなものです。通常のテキストベースのプロンプトを使用して、ハードウェアに関する質問や最適化方法について質問することができます。
- 一例として、ゲームプレイ中のパフォーマンス分析が挙げられます。 ここでは、フレームレートの低下を軽減したり、ゲーム設定を最適化したりするために、G-AssistにGPUクロックを調整するよう指示することもできます。
G-Assist がサポートする 70 以上のプロンプトの完全なリストは、Nvidia の公式ウェブサイトでご覧いただけます。0.1 クエストで行き詰まった場合など、当初発表されたゲーム内ヘルプは、現時点ではアシスタントには含まれていません。
Nvidia G-Assist: システム要件
G-Assist 機能を使用するには、少なくとも 12 GB のビデオメモリを搭載した GeForce グラフィックカードなどが必要です。本記事公開時点で、以下のGPUが互換性があります。
- RTX 3060 12 GByte、RTX 3080 12 GByte、RTX 3080 Ti、RTX 3090 (Ti)
- RTX 4060 Ti 16 GByte、RTX 4070 (Super)、RTX 4070 Ti (Super)、RTX 4080 (Super)、RTX 4090
- RTX 5070、RTX 5070 Ti、RTX 5080、RTX 5090
最新のアプリケーション・アップデートに加え、テキストベースのウィザードには最新のGeForceドライバー572.83と6.5 GBのハードドライブ空き容量が必要です。音声コントロールにはさらに3 GBの空き容量が必要です。
また、G-Assistは現在英語のみで利用可能である点にもご留意ください。
Nvidia G-Assist: LLamaに基づくローカルAI
ただし、Nvidiaがさらに説明しているように、インターネット接続は必要ありません。代わりに、G-AssistはRTXグラフィックカード上でローカルに実行されるAIとして機能します。
- Nvidiaによると、これは80億のパラメータを持つLlamaに基づく命令モデルによって実現されており、現在の大型AIモデルのごく一部しか使用しません。
- また、これはメモリ消費量の多さの説明にもなります。G-Assistがテキスト入力を受信すると、「Nvidia GPUはAI推論のためにその処理能力の一部を割り当てる」のです。アシスタントが適切な応答を検索している間、短い間、処理が遅くなる場合があります。
バージョン0.1であるG-Assistは、もちろんまだ機能的には初期段階にある。しかし、これはNvidiaだけが拡張しているわけではない。開発者らはGitHubリポジトリを公開しており、その中には例や指示が含まれている。
コミュニティ開発者はこれを使用して「シンプルなJSONスクリプトで関数を定義」することができます。さらに、プラグイン全体をNvidiaに提出して統合することも可能です。
例として、開発者は、お気に入りのチャンネルが現在ライブ中であるか、関連するストリーム情報を提供できるTwitchプラグインを挙げています。また、オフラインであるかどうかもわかります。