AIモデルのデータサイズは1つあたり数GB~数十GBが当たり前で、賢いAIモデルほど読み込むべきデータは通常大きくなる。従って、大容量のユニファイドメモリによって、必要に応じて動的にAIが使うVRAMを拡張できるProArt PX13 ...
ASRockは、Intel Arc Pro B70を搭載したプロ向けグラフィックスカード2製品を発表した。最大32GB VRAMやAIエンジン、LinuxでのマルチGPU対応を備え、AI推論やLLM処理、レンダリング用途を見据えた構成となる。
HPは、米国ニューヨーク市において開催中の年次イベント「HP Imagine 2026」において、同社の新しいデスクトップPCのラインナップを発表した。 発表されたのは、CESで「HyperX ...
ASRockは、最新のグラフィックスカード「Intel Arc Pro B70」を発表した。この製品は、プロフェッショナルなワークスペースにおける新たな価値を提供することを目指している。 Intel Arc Pro B70シリーズは、最大32GBのVRAMを搭載しており、高度なAI推論処理のニーズに応える設計が特徴だ。最新のXe Matrix Extensions (XMX) AI エンジンを採用 ...
Photo:DaisukeIshizakaAIは便利です。便利すぎて、気がつくと何度もトークや壁打ちを重ねてしまい「ごめん、トークン(会話できる回数)を使い切っちゃったから上のプランで契約しようよ!」と言われちゃう。そんなに無駄遣いしたつもりはなかっ ...
「メモリは最低でも16GB」というのがWindows 11時代におけるPCユーザーの“たしなみ”となっている中、 生成AIの活用が進んできた近頃はGPU側のメモリであるVRAMも「16GBが標準ライン」になりつつある。
(非技術者の一般用途として)ローカルLLMを利用する場合、ollamaかLM Studioが一般的です。 筆者はLinuxをデスクトップとして利用している事もあり、何かと筆者用途と合致するollamaを利用する事が多いのですが、LM Studioでなければできない事もあります。
禁断のファイルはどこに? そうなのです、私はComfyUIの禁断の領域に足を踏み入れてやりました もう、VRAMを無駄なくカツンカツンに使わせる方法を自己流で見付けたのです 起動引数によるVRAM管理 VRAMの管理には起動引数でVRAMの定義する方法があります。
米NVIDIAは10月31日、サポートページ内にあるナレッジベースに掲載する形で、「Stable Diffusion」に関する動作の仕様について情報を公開した。生成AIを手軽に楽しめる「Stable Diffusion」におけるTipsがまとまっている。 Stable Diffusionは、利用にあたって大容量のGPU ...
大規模言語モデルを動作させるには、演算処理にGPUを使用するため、グラフィックスメモリ(VRAM)の容量が重要になります。「VRAM Estimator」はさまざまなモデルで必要となるVRAMの容量をシミュレーションで予測するウェブアプリです。 VRAM Estimatorにアクセス ...
NVIDIA「GeForce RTX 5060(以降RTX 5060と略)」は、5万円台より入手できる“RTX Blackwell”世代のGeForceである。ゲーマーにとっては「DLSS MFG(Multi Frame Generation:マルチフレーム生成)」が利用できる現状最安のGeForceであるが、同時にニューラルレンダリング時代に備える ...