-
IT café
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
válasz
bobalazs #43599 üzenetére
Ami ott le van írva annyi a hír már pár hónap óta, azóta újdonság nem jött . Majd bekerül az első játékokba akkor lesz érdekes. Mondjuk az új Witcherben nagyon el tudnám képzelni, bár azt nem tudom, hogy Nvidia támogatott cím lesz e.
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
bobalazs
nagyúr
Érdekes ez az Nvidia ACE. Mit lehet erről tudni?
Ha bedőlnék a reklámnak, azt mondanám forradalmi újítás lesz. -
[NVIDIA Releases DLSS 3.7.0 With Quality E Preset for Image Quality Improvements]
Főleg a vékony vonalaknál lett szebb szerintem.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
-
lenox
veterán
válasz
MasterDeeJay #43591 üzenetére
Mire hasznalnad a doublet?
-
Egy érdekes videó az érkező Blackwell fontos újításáról, a mikroskálázás hatékonyságnöveléséről. [Making AI More Accurate: Microscaling on NVIDIA Blackwell]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
huskydog17
addikt
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
-
Raymond
félisten
válasz
MasterDeeJay #43591 üzenetére
Ahh ertem. Ehhez nem tudok hozzaszolni, kartya modding temahoz nem ertek, nem foglalkoztam vele soha.
Privat velemeny - keretik nem megkovezni...
-
válasz
Raymond #43590 üzenetére
Nem kapok sajnos. töredéke sincs.
V100 GPU fizikailag ugyan azon számokkal mint a Tesla V100-ason. GV100-893-A1
Szerintem szoftveres a limit. Volt 2 éve egy nagy nvidia driver leak 80Gb forráskóddal, a legtöbb modder azzal dolgozik. Nekem nincs rá tudásom hogy értelmezzem és megírjam hiába tudok alap szinten programozni.Single az okés hozza amit kell. De double 462
Ennek kellene lennie
FP32 (float)14.13 TFLOPS
FP64 (double)7.066 TFLOPS (1:2)[ Szerkesztve ]
-
Raymond
félisten
válasz
MasterDeeJay #43589 üzenetére
Most a banyaszkartyadrol van szo ahol 2:1 kene lenni az arany az FP32 vs FP64 mellett? Nem kapsz annyit?
En arra gondoltam hogy az ujabb kartyaknal ahol mar 32:1 vagy 64:1 az arany meg a Workstation kartyaknal is hogy ott nincs mar mit feloldani.
Privat velemeny - keretik nem megkovezni...
-
-
Raymond
félisten
válasz
MasterDeeJay #43587 üzenetére
A DP teljesitmeny tudtommal hardveresen fix mar nagyon regen, nincs mit feloldani.
Privat velemeny - keretik nem megkovezni...
-
Az esetleg tudja valaki hogy van-e driver mod Float64 teljesítmény feloldására? Gondolok itt akár melyik asztali kártyára vagy bányászkáryákra.
Nem igazán aktív már aki a leaked driver forráskódból csinálgatott modokat. -
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
-
Raymond
félisten
válasz
MasterDeeJay #43583 üzenetére
Az az AB curve-nel meg jelold be shift+balegerrel a kiemelt +208 es a jobbra toole levo pont kozottol a vegeing utanna csak a balegerrel huzd le azt a +208 utanni elso pontot alulra (menni fog vele a tobbi jobbra levo is) aztan ENTER. Aztan egyenes lesz onnan az 1582@0.794-tol vegeig es marad azon.
Mar ha erre gondoltal.
Privat velemeny - keretik nem megkovezni...
-
válasz
Raymond #43578 üzenetére
MSI afterburner OC scan után.
Az várható volt hogy a HBM2 az 1Ghz-es rajta nem 810.
GPU 1582@0.794v CUDA-Z és Aida tesztek alatt.
Stable diffussion alatt ugyan ennyi, GPU power 210w, board power 262W
Viszont így már 68 fokig felmegy, majd a rendes hűtővel ki fogom tolni a tdp limitet nagyobbra mert tartalék van benne még.Elléggé furcsa íve lett, nem is értem miért ilyen:
[ Szerkesztve ]
-
-
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
-
Raymond
félisten
válasz
MasterDeeJay #43579 üzenetére
Heh, tenyleg tobbet kellett volna rendelned ezekbol a kartyakbol
Privat velemeny - keretik nem megkovezni...
-
válasz
Raymond #43578 üzenetére
Abból gondolom én is hogy működik mert ki be kapcsolva más az eredmény. Illetve 200w fölé megy a fogyasztás.
CUDA-Z benchmark:GPU Core Performance
Single-precision Float: 13.4887 Tflop/s
Double-precision Float: 441.227 Gflop/s
64-bit Integer: 3298.58 Giop/s
32-bit Integer: 13.5213 Tiop/s
24-bit Integer: 13.3683 Tiop/sFloat32 az hozza a 14Tflopsot (~2080Ti), a Float64 az nem bár az nem is lényeg.
Fooocus használja a Float16-ot a logokból látszik.
Az órajelek még mindíg alacsonyabbak mint kellene, de majd javítok rajta. A pcie sávszél is megoldódik, két-két SMD hiányával tiltották le
[ Szerkesztve ]
-
Raymond
félisten
válasz
MasterDeeJay #43577 üzenetére
Ahogy nezem mar letesztelted rendesen?
Generalsz kepet a sima model es VAE kombinacioval, kapsz egy it/s erteket. Aztan generalsz ugyanolyan felbontasu kepet az aktivalt TRT UNet-el es megint kapsz egy it/s ertket. Az a 3 -> 8 az nagy ugras. En csak a 4090-el probaltam par honapja szinten az SD1.5 model konvertalasaval es ott csak olyan 65-75% pluszt hoz igy nem sok ertelme van. Az a kartya mar az SDXL 1024x1024 kepeket is 3-4mp alatt generalja 30 lepessel, nincs sok ertelme az 512x512 vagy 768x768 felbontasu kepeket gyorsitani, foleg mert azoknal mar kell mas is (hiresfix vagy mas upscaler, inpainting stb.) es ott sok a limitacio es a model swapping igy az amit nyersz elveszik a komplett processzben. Nalad viszont egyertelmuen van ertelme ha 2.5x gyorsabban general.
Szerk: itt egy illusztracio miert nincs ertelme 4090-nel. Ezt a tesz [kép] 16 darab 768x1280 felbontasu kep az X-en lathato lepesekkel generalva es 92 masodpercig tartott a folyamat. Arra viszont jo volt hogy lassam valami nem oK a geppel mert lassabban general olyan 15%-al mint regebben, mindegy hogy A1111 vagy Fooocus, ra kell nezni mi van
[ Szerkesztve ]
Privat velemeny - keretik nem megkovezni...
-
válasz
Raymond #43561 üzenetére
SD-re felraktam a tensorRT kieget bekapcsolva 8 kikapcsolva 3
Nem tudom hogyan lehetne tesztelni rendesen.
Loading TensorRT engine: T:\AI\stable-diffusion-webui\models\Unet-trt\v1-5-pruned-emaonly_d7049739_cc70_sample=2x4x64x64-timesteps=2-encoder_hidden_states=2x77x768.trt
Loaded Profile: 0
sample = [(2, 4, 64, 64), (2, 4, 64, 64), (2, 4, 64, 64)]
timesteps = [(2,), (2,), (2,)]
encoder_hidden_states = [(2, 77, 768), (2, 77, 768), (2, 77, 768)]
latent = [(2, 4, 64, 64), (2, 4, 64, 64), (2, 4, 64, 64)]
100%|██████████████████████████████████████████████████████████████████████████████████| 20/20 [00:02<00:00, 7.84it/s]
Total progress: 30it [07:30, 15.00s/it]
100%|██████████████████████████████████████████████████████████████████████████████████| 20/20 [00:02<00:00, 7.71it/s]
Total progress: 100%|██████████████████████████████████████████████████████████████████| 20/20 [00:02<00:00, 6.71it/s]
100%|██████████████████████████████████████████████████████████████████████████████████| 20/20 [00:02<00:00, 7.30it/s]
Total progress: 100%|██████████████████████████████████████████████████████████████████| 20/20 [00:02<00:00, 6.88it/s]
Dectivating unet: [TRT] v1-5-pruned-emaonly████████████████████████████████████████████| 20/20 [00:02<00:00, 8.02it/s]
100%|██████████████████████████████████████████████████████████████████████████████████| 20/20 [00:06<00:00, 2.93it/s]
Total progress: 100%|██████████████████████████████████████████████████████████████████| 20/20 [00:06<00:00, 2.94it/s]
Activating unet: [TRT] v1-5-pruned-emaonly█████████████████████████████████████████████| 20/20 [00:06<00:00, 3.01it/s]
Loading TensorRT engine: T:\AI\stable-diffusion-webui\models\Unet-trt\v1-5-pruned-emaonly_d7049739_cc70_sample=2x4x64x64-timesteps=2-encoder_hidden_states=2x77x768.trt
Loaded Profile: 0
sample = [(2, 4, 64, 64), (2, 4, 64, 64), (2, 4, 64, 64)]
timesteps = [(2,), (2,), (2,)]
encoder_hidden_states = [(2, 77, 768), (2, 77, 768), (2, 77, 768)]
latent = [(2, 4, 64, 64), (2, 4, 64, 64), (2, 4, 64, 64)]
100%|██████████████████████████████████████████████████████████████████████████████████| 20/20 [00:02<00:00, 7.88it/s]
Total progress: 100%|██████████████████████████████████████████████████████████████████| 20/20 [00:02<00:00, 6.85it/s]
Total progress: 100%|██████████████████████████████████████████████████████████████████| 20/20 [00:02<00:00, 8.00it/s]
[ Szerkesztve ]
-
Raymond
félisten
válasz
MasterDeeJay #43575 üzenetére
Ha maradna is ahogy van, ez egy 2080Ti/3070 teljesitmeny 16GB VRAM-al 150-ert.
Privat velemeny - keretik nem megkovezni...
-
Biost nem enged még a moddolt bios írókkal sem. Kézzel beálíltva órajeleket nem stabil, illetve a TDP limit is le van véve, biosa szerint 250w -60-0%-ig állítható de sem nvidia-smi-vel sem afterburnerrel nem lehet. Szóval elő szedem a külső írót mert amúgy is szét kell szednem a kártyát.
Rebar sem megy, azaz nem is kapott nagy memóriacímet bár nem tudom hogy kellene-e neki egyáltalán. -
válasz
Raymond #43573 üzenetére
Az biztos hogy végigpróbálom más biosokkal. Nvsmi-vel lehet húzni korlátozottan de a hbm is csak 810mhz max. Boostot 1380-ra fel tudtam rakni de nem boostol. Tdp limit is 100%hogy van szóval a legjobb v100-as biossa kezdem majd. Meg ugye a pcie 1x bár az nekem nem nagy gond.
Quadro gv100 biosa lenne logikus hátha van rajta venti vezérlés is már ha az áramkör rajta van. (Most kézzel tekergetem egy régi titan szabályzóval)[ Szerkesztve ]
-
lenox
veterán
válasz
Raymond #43571 üzenetére
Ez meg a gv100:
Total VRAM 32767 MB, total RAM 32723 MB
Set vram state to: NORMAL_VRAM
Always offload VRAM
Device: cuda:0 Quadro GV100 : native
VAE dtype: torch.float32[Fooocus] Encoding positive #1 ...
[Fooocus Model Management] Moving model(s) has taken 0.17 seconds
[Fooocus] Encoding positive #2 ...
[Fooocus] Encoding negative #1 ...
[Fooocus] Encoding negative #2 ...
[Parameters] Denoising Strength = 1.0
[Parameters] Initial Latent shape: Image Space (1024, 1024)
Preparation time: 2.79 seconds
[Sampler] refiner_swap_method = joint
[Sampler] sigma_min = 0.0291671771556139, sigma_max = 14.614643096923828
Requested to load SDXL
Loading 1 new model
[Fooocus Model Management] Moving model(s) has taken 2.69 seconds
100%|██████████████████████████████████████████████████████████████████████████████████| 30/30 [00:10<00:00, 2.78it/s]
Requested to load AutoencoderKL
Loading 1 new model
[Fooocus Model Management] Moving model(s) has taken 0.25 seconds
Image generated with private log at: C:\Fooocus\Fooocus\outputs\2024-03-29\log.html
Generating and saving time: 15.11 seconds
[Sampler] refiner_swap_method = joint
[Sampler] sigma_min = 0.0291671771556139, sigma_max = 14.614643096923828
Requested to load SDXL
Loading 1 new model
[Fooocus Model Management] Moving model(s) has taken 1.74 seconds
100%|██████████████████████████████████████████████████████████████████████████████████| 30/30 [00:11<00:00, 2.68it/s]
Requested to load AutoencoderKL
Loading 1 new model
[Fooocus Model Management] Moving model(s) has taken 0.25 seconds
Image generated with private log at: C:\Fooocus\Fooocus\outputs\2024-03-29\log.html
Generating and saving time: 14.62 seconds
Requested to load SDXLClipModel
Requested to load GPT2LMHeadModel
Loading 2 new models
Total time: 32.58 seconds
[Fooocus Model Management] Moving model(s) has taken 0.77 seconds -
lenox
veterán
válasz
Raymond #43561 üzenetére
Nekem ilyen:
Total VRAM 49140 MB, total RAM 130834 MB
Set vram state to: NORMAL_VRAM
Always offload VRAM
Device: cuda:0 NVIDIA RTX 6000 Ada Generation : native
VAE dtype: torch.bfloat16[Fooocus] Encoding positive #1 ...
[Fooocus Model Management] Moving model(s) has taken 0.14 seconds
[Fooocus] Encoding positive #2 ...
[Fooocus] Encoding negative #1 ...
[Fooocus] Encoding negative #2 ...
[Parameters] Denoising Strength = 1.0
[Parameters] Initial Latent shape: Image Space (1024, 1024)
Preparation time: 1.98 seconds
[Sampler] refiner_swap_method = joint
[Sampler] sigma_min = 0.0291671771556139, sigma_max = 14.614643096923828
Requested to load SDXL
Loading 1 new model
[Fooocus Model Management] Moving model(s) has taken 2.62 seconds
100%|██████████████████████████████████████████████████████████████████████████████████| 30/30 [00:04<00:00, 6.36it/s]
Requested to load AutoencoderKL
Loading 1 new model
[Fooocus Model Management] Moving model(s) has taken 0.14 seconds
Image generated with private log at: S:\fooocus\Fooocus\outputs\2024-03-29\log.html
Generating and saving time: 8.16 seconds
[Sampler] refiner_swap_method = joint
[Sampler] sigma_min = 0.0291671771556139, sigma_max = 14.614643096923828
Requested to load SDXL
Loading 1 new model
[Fooocus Model Management] Moving model(s) has taken 1.23 seconds
100%|██████████████████████████████████████████████████████████████████████████████████| 30/30 [00:04<00:00, 6.29it/s]
Requested to load AutoencoderKL
Loading 1 new model
[Fooocus Model Management] Moving model(s) has taken 0.13 seconds
Image generated with private log at: S:\fooocus\Fooocus\outputs\2024-03-29\log.html
Generating and saving time: 6.73 seconds
Requested to load SDXLClipModel
Requested to load GPT2LMHeadModel
Loading 2 new models
Total time: 16.93 seconds
[Fooocus Model Management] Moving model(s) has taken 0.57 seconds -
-
Raymond
félisten
válasz
MasterDeeJay #43567 üzenetére
Hat azt nagyon megerte, egy 16GB gyors VRAM-u kartya 150EUR-ert, a legolcsobb uj a 3x dragabb 4060Ti 16GB most 450EUR-ert.
Privat velemeny - keretik nem megkovezni...
-
válasz
Raymond #43564 üzenetére
Na akkor a 2080-hoz képest +19%. Kezdetnek az nem annyira rossz. Tekintve hogy 59eft volt postával.
Azt tudni kell hogy nem boostol órajelet a kártya, tdp is mintha limitálva lenne. Nagyon furcsa hogy alig melegszik. Ha kész lesz hozzá a hűtés akkor újra mérek mindent.
Az biztos hogy a gyári biosa limites vagy legalábbis bányászatra optimalizált.
Illetve szét is kell szednem a pcie 1x miatt mert lehet csak az smd kondik hiányoznak.
Elmeletben az összes CMP bányásznál tensor mag és dupla pontosság, pcie sávszél, video en/decode nyesve van. Annyi hogy ez usa piac only szóval lehet itt engedékeynebbek voltak.[ Szerkesztve ]
-
-
Raymond
félisten
válasz
MasterDeeJay #43563 üzenetére
"FP16-ot kellene tudnia pedig."
Tudja es szerintem hasznalja is belsoleg. A Turing RTX2080 is tamogatja az FP16-ot tensor alatt plusz a RAM hasznalatbol itelve is FP16-ban megy a kepgeneralas, maskepp nem lenne igazan eleg a 8GB VRAM a Fooocus-nal se.
Privat velemeny - keretik nem megkovezni...
-
Raymond
félisten
válasz
MasterDeeJay #43563 üzenetére
Az hogy a komplett muvelett lassabb az ertheto a lassu PCIe miatt de hogy a generalas maga is csak 19%-al gyorsabb (1.83 -> 2.18) az erdekes. Na es az is hogy a sokkal magasabb memoria savszel ellenere az LLM inference azzal az 5GB-ot foglalo modellel ugyanaz a sebesseg. De lehet az nem terheli elegge, azzal az RTX4090 is olyan 100 tok/s csak.
Privat velemeny - keretik nem megkovezni...
-
válasz
Raymond #43561 üzenetére
Felraktam a fooocust.
Total VRAM 16384 MB, total RAM 130776 MB
Set vram state to: NORMAL_VRAM
Always offload VRAM
Device: cuda:0 Tesla V100-PCIE-12GB : native
VAE dtype: torch.float32
Using pytorch cross attention
Refiner unloaded.
Running on local URL: http://127.0.0.1:7865
model_type EPS
UNet ADM Dimension 28161024x1024-en elég lassú.
[Fooocus] Preparing Fooocus text #1 ...
[Prompt Expansion] proharver test image video cards, dramatic color, intricate, elegant, highly detailed, extremely scientific, shining, sharp focus, innocent, fine detail, beautiful, inspired, illustrious, complex, epic, amazing composition, fancy, elite, designed, clear, crisp, polished, artistic, symmetry, rich deep colors, cinematic, light, striking, marvelous, moving, very
[Fooocus] Preparing Fooocus text #2 ...
[Prompt Expansion] proharver test image video cards, mystical surreal, highly detailed, very beautiful, dramatic light, cinematic composition, clear artistic balance, inspired color, intricate, elegant, perfect background, professional fine detail, extremely nice colors, stunning, cute, futuristic, best, creative, positive, thoughtful, vibrant, successful, pure, hopeful, whole, romantic, iconic, shiny
[Fooocus] Encoding positive #1 ...
[Fooocus Model Management] Moving model(s) has taken 1.27 seconds
[Fooocus] Encoding positive #2 ...
[Fooocus] Encoding negative #1 ...
[Fooocus] Encoding negative #2 ...
[Parameters] Denoising Strength = 1.0
[Parameters] Initial Latent shape: Image Space (1024, 1024)
Preparation time: 3.55 seconds
[Sampler] refiner_swap_method = joint
[Sampler] sigma_min = 0.0291671771556139, sigma_max = 14.614643096923828
Requested to load SDXL
Loading 1 new model
[Fooocus Model Management] Moving model(s) has taken 34.70 seconds
100%|██████████████████████████████████████████████████████████████████████████████████| 30/30 [01:05<00:00, 2.19s/it]
Requested to load AutoencoderKL
Loading 1 new model
[Fooocus Model Management] Moving model(s) has taken 1.89 seconds
Image generated with private log at: T:\AI\Fooocus\Fooocus\outputs\2024-03-29\log.html
Generating and saving time: 103.38 seconds
[Sampler] refiner_swap_method = joint
[Sampler] sigma_min = 0.0291671771556139, sigma_max = 14.614643096923828
Requested to load SDXL
Loading 1 new model
[Fooocus Model Management] Moving model(s) has taken 27.48 seconds
33%|███████████████████████████▎ | 10/30 [00:21<00:43, 2.18s/it]Annyi hogy a kártyát átraktam WDDM módba nvidia-smi-vel.
Így már Aida is látja rendesen meg a hwinfó is.
Játékra is alkalmas lenne de a pcie1x miatt nincs értelme.FP16-ot kellene tudnia pedig. Még annyi hogy alig melegszik 60 fok felett alig látom pedig nem is megy rá rendesen levegő csak ilyen 2 cm hézagba fujatok bele blowerrel. Az előző Tesla M40 már ennyinél megfőtt volna.
[ Szerkesztve ]
-
Raymond
félisten
válasz
MasterDeeJay #43559 üzenetére
Megneztem ezt is az RTX2080 gepen LM Studio-ban, kb ugyanaz a sebesseg (57.56 tok/s):
Privat velemeny - keretik nem megkovezni...
-
Raymond
félisten
válasz
MasterDeeJay #43560 üzenetére
Ez eleg lassunak tunik, legalabbis en tobbre szamitottam. A sima RTX2080 csinal az SD1.5-el olyan 9 it/s korul. Nalam a vae-ft-mse-840000-ema-pruned.safetensort van a VAE-ra hasznalva es ahogy nezem nalad azert is sir hogy xformers nincs, nalam az is megy. Az alap SD1.5-bol van egy TensorRT verziom is, az igy fut az RTX2080-on:
A nem konvertalt "alap" ahogy fentebb reszletezve pedig igy:
Probald meg a Fooocus-t. Ott csak ezt a zip-et kell letolteni, kicsomagolni es utanna run.bat [link] letolt maganak mindent ami kell beleertve a model/weight file-okat igy eltart egy darabig az elso inditas (foleg a 6GB+ JuggernautXLv8 letoltese miatt) de utanna szepen megy minden. Ha valtoztatsz a Preset-en (az Advanced alatt, itt allitsd 1024x1024-re a meretet is) akkor letolt mas modelleket is [link] de ezt latod a konzolban hogy miert "nem tortenik semmi azonnal". Az RTX2080 itt 1.83 it/s amit tud. Ez a specs amit detekal:
Total VRAM 8192 MB, total RAM 32714 MB
Set vram state to: NORMAL_VRAM
Always offload VRAM
Device: cuda:0 NVIDIA GeForce RTX 2080 : native
VAE dtype: torch.float32
Using pytorch cross attention
Refiner unloaded.
Running on local URL: http://0.0.0.0:7865
model_type EPS
UNet ADM Dimension 2816Kicancsi lennek mit ir nalad a VAE dtype-ra, itt F32, az RTX4090-nel BF16.
Privat velemeny - keretik nem megkovezni...
-
válasz
MasterDeeJay #43559 üzenetére
Stable diffussion:
Messze gyorsabb mint a 1080ti vagy az A770, biztos hogy mennek a tensor magok!
-
válasz
Raymond #43557 üzenetére
Minimál venti fordulaton. Cuda koboltcpp dolphin-2.6-mistral-7b.Q5_K_M modellel. 40-150w max. 5gb vram-ot használ csak. Majd rakok fel egy nagyobb modellt.
Érzékelni egy kis coil whine-t ami nem a proci felől jön de csak egy fél másodpercre mert eléggé gyors.Rakok fel stable diffusiont.
[ Szerkesztve ]
-
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Raymond
félisten
válasz
MasterDeeJay #43556 üzenetére
"Pcie sáv valóban 1x 1.1 aminek igazán nem nagyon van jelentősége amire használnám."
Ugyis az a fontos hogy beleferjen minden a VRAM-ba es 16GB-al az SDXL nem gond az LLM-ek kozul pedig van jopar 13b ami belefer mind es 30b koruli is talalni ami normalis minoseg mellett belefer.Privat velemeny - keretik nem megkovezni...
-
válasz
Raymond #43555 üzenetére
Tesztelni fogom, minden progi 16Gb vrammal írja, beleértve aida, hwinfo stb csak a neve 12Gb aidánál meg pár proginál.
Pcie sáv valóban 1x 1.1 aminek igazán nem nagyon van jelentősége amire használnám. Küldök be aidásoknak riportot mert pár dolog nem stimmel.
Ami érdekes hogy venti maxon 60 fok alatt van, pedig alig éri valami. És tényleg nem forró tesztek alatt sem. Valószínű TDP limit lesz a driverben 180w-ra.
Majd lehet kap egy másik biost normális órajelekkel, most még ilyen light módban megy bár így sem annyira gyenge. Már most megérte az árát.[ Szerkesztve ]
-
Raymond
félisten
válasz
MasterDeeJay #43554 üzenetére
Nice! Mar epp gondoltam rad a napokban hogy megjott-e a kartya
Akkor megis ott a 16GB VRAM vagy csak a GPU-Z gondolja ugy? Local LLM-el es SDXL tesztelted mar?
Privat velemeny - keretik nem megkovezni...
-
-
válasz
S_x96x_S #43549 üzenetére
Nem csodálom:
[Nvidia Hopper H200 breaks MLPerf benchmark record with TensorRT]
"Nvidia also highlighted its performance in MLPerf Llama 2 70B when compared with Intel's Gaudi2 NPU solution. According to Nvidia's charts, the H200 achieved its world record 31,712 scores in server mode with TensorRT-LLM enhancements. In offline mode, the chip scored 29,526 points. The H200's new scores are around 45% faster than what H100 could accomplish, thanks in a large part to having more memory bandwidth and capacity. In the same benchmark, using TensorRT as well, the H100 scored 21,806, and 20,556 in server and offline modes, respectively. Intel's Gaudi2 results by comparison were only 6,287 and 8,035 in server and offline modes.""A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
S_x96x_S
addikt
nVidia találgatós ..
( az ügyfelekért - mindent .. )Mottó: "A verseny jó!"
-
-
válasz
huskydog17 #43544 üzenetére
Az ASUS dual normális helyen 135-137, induláskor 132 volt...
"Piroska és Berci, a farkas / Századunk hősei most."
-
Mans20
addikt
válasz
huskydog17 #43544 üzenetére
Még mindig drága, max 90- 100-nak kellene lennie.
-
S_x96x_S
addikt
A Blackwell - már hivatalos Gen6 támogatása után
érdekes visszaolvasni az 1 hónappal ezelőtti pletykákat .."
NVIDIA making this move makes sense, as it fully simplifies the supply chain... the company will require a single PCIe 6.0 16-pin power connector for every single GeForce RTX 50 series graphics card it makes.
All of the future GeForce RTX 50 series Founders Edition cards would roll out with the new PCIe 6.0 connector, as well as the company mandating the new PCIe 6.0 16-pin power connector to custom AIB models of upcoming RTX 50 series GPUs.
Read more: https://www.tweaktown.com/news/96270/nvidia-rumored-to-mandate-pcie-6-0-16-pin-power-connector-for-geforce-rtx-50-series-gpus/index.html"és már demózzák is .. a high-end -et ...
"Working PCIe 6.0 connectivity demoed at GTC — Astera Labs' Aries retimers currently power Nvidia's HGX systems with eight H100 GPUs, likely future Blackwell systems, too
PCIe 6.0 is critical for next-gen GPUs and CPUs."
( via Tom'sHW)Mottó: "A verseny jó!"
-
huskydog17
addikt
RTX 4060 ára lement 300 dollár alá külföldön:
GeForce RTX 4060 is now available for $279
Kíváncsiságból megnéztem az aktuális legolcsóbb kínálatot itthon, a legolcsóbb RTX 4060, az egy ventis Inno3D jelen hsz írása pillanatában 121 ezer pénzért vihető haza. Kezd egyre barátibb ára lenni a 4060-as szériának.
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
S_x96x_S
addikt
házi AI szerver ...
"Building WOPR: A 7x4090 AI Server"
https://www.mov-axbx.com/wopr/wopr_concept.html
https://www.mov-axbx.com/wopr/wopr_risers.html
https://www.mov-axbx.com/wopr/wopr_power.html
https://www.mov-axbx.com/wopr/wopr_frame.html
https://www.mov-axbx.com/wopr/wopr_bom.htmlMottó: "A verseny jó!"
-
válasz
M@trixfan #43539 üzenetére
ha megnézed a szabadalmat kifejezetten írja hogy azokban az esetekben van értelme ha a VRAM szűk keresztmetszet. Egyértelmű, hogy 32 GB vram és 24 sem az.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
M@trixfan
addikt
Köszi mindenkinek a választ, remélem oké ha így egyben válaszolok
Majd mindjárt nézem a Tom’s cikket, előtte hadd helyezzem perspektívába a dolgot! Egy 5090 esetében szerintem ilyesmi méretek várhatóak legalább, de érdemes megnézni az összes mem konfigot.Gen 1 GDDR7:
512-bit / 28 Gbps / 32 GB (Max Memory) / 1792 GB/sSK hynix's 40 Gbps modulokból:
384-bit / 40 Gbps / 36 GB (Max Memory) / 1920 GB/sPCIe 6.0 SSD: 32GB/s maximum
Ezt research nélkül is lehet érezni, hogy egy SSD köszönő viszonyban sincs egy grafikus memóriához képest és akkor még a latency-ről nincs is szó. A mem az elég valószínű ns tartományban mozog, az SSD-k pedig simán ms tartományúak. Akármilyen jó egy SSD, a rendszer memória gyorsabb. Szerintem még a buszon keresztül is. Vagy pl. egy olcsóbb kiegészítő dram pool a kártyán hamarabb eszébe jut az embernek.
Na de most már megnézem a Tom’s cikket, mert valamiért csak kitalálták ezt[ Szerkesztve ]
twitter: MatrixfanLive | Ősidőktől a PH!-n
-
D55
aktív tag
válasz
S_x96x_S #43534 üzenetére
"ideális esetben a Gen6-os GPU swappel a Gen6-os M.2 SSD-re."
Itt nekem az nem fér teljesen össze, hogy pont egy high-end Blackwell ahol szerintem a VRAM sem lesz szűkös (meglepődnék, ha az 5090 nem kapna legalább 32 vagy akár 48 gigát), mid-range környékén meg nem igazán jellemző a vásárlóközönségre, hogy 1-2 évente a teljes configjukat cserélnék, sokkal inkább csak 3-4-5 évente.
[ Szerkesztve ]
-
válasz
M@trixfan #43533 üzenetére
Nem értek hozzá, nem én találtam fel.
de szerintem ahogy írtam feljebb is,amennyira tudom értelmezni a BVH lenne elosztva és nem kellene hogy a teljes struktúra bent legyen a Vramban hanem három lépcsőben kezelné a GPU,és elválasztaná azokat amiket folyamatosan és közvetlenül használ.Valószínűleg az új SSD-k lényegesen gyorsabban kezelnék a sokkal nagyobb sruktúrát mint a Vram mérete, leválasztana magának egy szeletet a GPU. DE ahogy néztem ez lehet éppen rendszermemória is, ami meg főleg alkalmas lehet erre.
Azért mondjuk egy 12 GB vramos kártya ha kapna + 16 GB rendszermemóriát vagy 32 GB közvetlen SSD tárhelyet vagy mindkettőt, lehet tudna vele már mit kezdeni legalább is a Microsoft szerint, főleg ha mondjuk ezt textúrázásra vagy egyéb vram igényes raszter dolgokra hazsnálhatná fel a felszabaduló helyet nem feltétlenül csak RT -re.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
válasz
M@trixfan #43533 üzenetére
Egyrészt a "sok nagyságrend" a gen 5 esetében 1 és 2 között van.
Másrészt nem az számít, hogy mennyire gyors az SSD a VRAM sebességéhez képest, hanem hogy mennyire gyors a VRAM méretéhez képest. Egy gen 5 SSD egy 4070 memóriájának a tartalmát másodpercenként le tudja cserélni."Piroska és Berci, a farkas / Századunk hősei most."
-
S_x96x_S
addikt
válasz
M@trixfan #43533 üzenetére
> nekem nagyon furcsa, hogy egy vram-nál
> sok nagyságrenddel lassabb SSD hogyan forradalmasítja eztAmit fontos tudni:
- A (high-end) Blackwell már Gen6 -os lesz.
- És 2-3 év múlva már Optane kategóriájú ( ~ low latency) Gen6 -os extrém gyors M.2 SSD diszkek is elérhetőek lesznek.
- és már a Gen5 latency is sokkal szigorúbb mint a Gen4 ..vagyis ideális esetben
a Gen6-os GPU swappel a Gen6-os M.2 SSD-re.Mottó: "A verseny jó!"
-
M@trixfan
addikt
Ezt én is nézegetem, de nekem hátrébb lépve abszolút általánosságban nézve, az jön le RT fronton, hogy maga a zajszűrés és az elhanyagolás ami lehetővé teszi a valós idejű működést. Alapvetően még mindig nyers erőben van hiány az útvonalak számításához, nekem nagyon furcsa, hogy egy vram-nál sok nagyságrenddel lassabb SSD hogyan forradalmasítja ezt
twitter: MatrixfanLive | Ősidőktől a PH!-n
-
-
paprobert
őstag
"PC-n azért elég jól jöhet ha kevés a Vram"
Kérdés, hogy mennyit tud lefaragni, és az, hogy mire be lesz vetve, lesz-e értelme vele PC-n zsonglőrködni.Túl sokáig maradt velünk a 2017-2019 körüli VRAM mennyiség a mainstreamben... Ez a gond egy évtizednyi technológiai fejlődést követően csak megoldódik, gondolnám... ugye Jensen?
640 KB mindenre elég. - Steve Jobs
-
válasz
paprobert #43529 üzenetére
Szerintem működhet éppen rendszermemórián is ha jól látom, ami PC-n azért elég jól jöhet ha kevés a Vram a kártyán. Pl a 4070 super -4070Ti egy elég bika kis kártyak, de kevés a Vram RT alatt néhány esetben.
Vagy Hát lehetséges hülyeség ,de az is lehet hogy a Microsoft érkező kézikonzoljában is támaszkodna erre valami belépő RT ben."A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
paprobert
őstag
Köszi a linket. 10 percet beleolvastam, igen, BVH streamingnek tűnik, különböző pool-okban.
VRAM-ot szabadít fel, cserébe pörgeti a CPU-t és foglalja az SSD-t.Ez eléggé konzol-mankónak tűnik. Ott legtöbbször nincs extra szabad RAM, de a Zen2 magok fele nem csinál semmit.
Ennek egy sok RAM-os PC-n már csak limitált értelme van, sok VRAM-mal pedig konkrétan semmi.
[ Szerkesztve ]
640 KB mindenre elég. - Steve Jobs
-
válasz
paprobert #43527 üzenetére
Itt kifejezetten az RT ben való előrelépést szorgalmazza ilyen szempontból. Ha jól értem az egész BVH struktúra ketté vagy inkábbb hármom felé lenne szedve legalább is nekem ebből, a 7.oldalból [link] hasonló jön le nekem.
Egyből amit folyamatosan használ és amit ritkábban használ az egy másodlagos tárban lenne, és két lépcsőbben előkészítené az első ciklusra.Lehet nem jól értelmeztem ,de sztem ilyesmiről lehet szó.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Jacek
veterán
válasz
TESCO-Zsömle #43522 üzenetére
En a hulyeket sertegetem
-
hokuszpk
nagyúr
válasz
TESCO-Zsömle #43522 üzenetére
így hajnalban nekem úgytűnik, hogy Álmos vérvonalát viszem ; remélem ebből nemlesz bajom
Első AMD-m - a 65-ös - a seregben volt...
-
Jacek
veterán
válasz
TESCO-Zsömle #43517 üzenetére
Vannak a legkomolyabbak is -HUN name tag-el. Ott mestersegea unintelligencia van, eszememt szamitasi kapacitassal
-
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
huskydog17
addikt
Erre kíváncsi leszek, hogy a gyakorlatban mit fog tudni, mármint ezzel mit tudnak nyerni a játékfejlesztők, az mindenképp dicséretes és egyben ígéretes, hogy nyílt forráskódú és van benne szabványos mód is.
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
S_x96x_S
addikt
"NVIDIA's next-gen Vera Rubin AI GPU rumored for mid-2025,
compete with AMD Instinct MI400X"
https://www.tweaktown.com/news/97021/nvidias-next-gen-vera-rubin-ai-gpu-rumored-for-mid-2025-compete-with-amd-instinct-mi400x/index.html
https://en.wikipedia.org/wiki/Vera_Rubin
Mottó: "A verseny jó!"
-
D55
aktív tag
-
-
S_x96x_S
addikt
válasz
Busterftw #43503 üzenetére
> AMD előrejelzésen alapul a forrás,
> meg egy csomó "may" "might" "if"-en.
> Várjuk meg mennyi az annyi az év második felében .igazad van ,
a 7% még elég pesszimista is.
- mások 15-25% -ot becsülnek.
- vagy akár 20-30% -ot.---
Állítólag az nVidia elengedte (átengedte ) a HPC piacot a blackwell-el
és az AI-ra fókuszál.Ezt a csökkentett FP64 teljesítményből látható:
=== FP64 Tensor ===
A100 (80GB) = 19.5 TFLOPS
H100 = 67 TFLOPS
B200 = 40 TFLOPS
( via
At the other end of the spectrum, what also remains undisclosed ahead of the keynote address is FP64 tensor performance. NVIDIA has offered FP64 tensor capabilities since their Ampere architecture, albeit at a much reduced rate compared to lower precisions. This is of little use for the vast majority of AI workloads, but is beneficial for HPC workloads. So I am curious to see what NVIDIA has planned here – if B200 will have much in the way of HPC chops, or if NVIDIA intends to go all-in on low precision AI.)[ Szerkesztve ]
Mottó: "A verseny jó!"
-
Alogonomus
őstag
válasz
S_x96x_S #43501 üzenetére
a párhuzamosítás a lényeg
... a single chip annyira nem túl sokat fejlődött,
... emiatt a consumer csúcs gaming kártyákba is
valószínüleg 2 chipet tesznek.Ez abszolút rendben is van így. Mármint persze jobb lenne, ha az érdemi fejlődéshez nem kellene duplázni a chipeket, de ha így sikerült, hát így sikerült. A probléma az, hogy állítólag a duplázott chipek, meg a speciális összeköttetés hatására a Blackwell kártyák ára annyival magasabb is lesz, mint amennyivel többet tudnak nyújtani számítási teljesítményben. Így pedig az előző generációhoz képest költség szempontjából nem lesznek kedvezőbbek, csak helytakarékosabbak lesznek.
-
na ez durva lesz .
[SXM-To-PCIe Adapter Board Will Let Users Convert NVIDIA’s Top H100 AI GPUs Into 1 or 2-Slot Graphics Cards]"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
S_x96x_S
addikt
válasz
Alogonomus #43497 üzenetére
> a perf/slot mutató ...
a párhuzamosítás a lényeg
... a single chip annyira nem túl sokat fejlődött,
... emiatt a consumer csúcs gaming kártyákba is
valószínüleg 2 chipet tesznek.-----------
https://stratechery.com/2024/nvidia-waves-and-moats/"What is interesting to note is that both training runs take the same amount of time — 90 days. This is because the actual calculation speed is basically the same; this makes sense because Blackwell is, like Hopper, fabbed on TSMC’s 4nm process, and the actual calculations are fairly serial in nature (and thus primarily governed by the underlying speed of the chip). “Accelerated computing”, though, isn’t about serial speed, but rather parallelism, and every new generation of chips, combined with new networking, enables ever greater amounts of efficient parallelism that keeps those GPUs full; that’s why the big improvment is in the number of GPUs necessary and thus the overall amount of power drawn."
árakban - az előző cikk szerzője kisebb nvidia árrést vár,
a verseny miatt.
"
What is interesting to note is that there are reports that while the B100 costs twice as much as the H100 to manufacture, Nvidia is increasing the price much less than expected; this explains the somewhat lower margins the company is expecting going forward. The report — which has since disappeared from the Internet (perhaps because it was published before the keynote?) — speculated that Nvidia is concerned about preserving its market share in the face of AMD being aggressive in price, and its biggest customers trying to build their own chips. There is, needless to say, tremendous incentives to find alternatives, particularly for inference."megj:
az AMD agresszív árazásával már ~7% AI piaci részesedést szerezhetett..
"AMD To Ship Huge Quantities Of Instinct MI300X Accelerators, Capturing 7% of AI Market"[ Szerkesztve ]
Mottó: "A verseny jó!"
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- AMD Ryzen 9 / 7 / 5 9***(X) "Zen 5" (AM5)
- SONY LCD és LED TV-k
- Apple notebookok
- Digitális Állampolgárság Program DÁP
- Samsung Galaxy A55 - új év, régi stratégia
- Használható a Windows 11 aktiválás nélkül hosszú távon?
- Milyen okostelefont vegyek?
- Kávé kezdőknek - amatőr koffeinisták anonim klubja
- AMD GPU-k jövője - amit tudni vélünk
- Társasjáték topic
- További aktív témák...
Állásajánlatok
Cég: Marketing Budget
Város: Budapest