-
IT café
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Busterftw
nagyúr
válasz
Alogonomus #45395 üzenetére
4090-el teszteltek, persze hogy tul ment a 8GB-on, mert van tobb, mint 8GB.
De ez egy fel info, nezzuk meg hogy alakul a teljesitmeny 8GB korul, 1080p-ben.A 6800XT dupla! annyi vrammal nyer 4 atlag FPS-t vs 8GB 3070ti.
A 7700XT +4GB vrammal egal mint a 8GB 3070ti.Folytathatnam a tobbivel, de minek.
"A játékok memóriaigénye pedig egyértelműen növekedő tendenciát mutat"
Ezt nem vitatom, viszont a jatekok nem 1 het alatt keszulnek el, hogy ez hirtelen gond legyen. A jatekok memoriaigenye eddig is novekedett, ezt a vga piac pedig lekovette.
Mig egy 1080ti-n volt 11GB, most a csucson van 24GB.Ez az igeny nem novekszik olyan gyorsan es radikalisan, hogy azt a vga piac ne tudna lekovetni, mar csak azert sem, mert 2 evente van uj generacio.
-
Jacek
veterán
válasz
Alogonomus #45395 üzenetére
De az sem rossz hogy leirja valaki milyen jol fut NV a cucc, kozben az engine maga butitja a texturakat
anyamba lehet ivy ossze hasonlitani valami? Mert ha jol tudom nem lehet forcolni a textura nagysagat...
Ja refen ezt csalasnak hivtak a benhmarkokban mara features lesz, es taps es taps
[ Szerkesztve ]
-
Busterftw
nagyúr
En egyaltalan nem tapsolok ennek, tolem aztan rakhatnak ra tobbet.
En csak annyit mondok, hogy generaciok ota hallgatjuk a "nem eleg a vram" dumat, aztan teljesen tul van reagalva.Hellwhatever
Pontosan. Ez olyan mintha valaki 800 moddos 4K texturas Skyrim utan csodalkozik, hogy nem eleg ram/vram es crashel. -
Alogonomus
őstag
válasz
Busterftw #45391 üzenetére
Azért ha végigkattintod ezt, nem egy olyan játék jelent meg a jelenlegi kártyageneráció alatt, amikhez külön optimalizált beállításokat kellett meghatározni, amivel a látványból nem sok vész el, de a memóriahasználat jelentősen csökken, mert a teljes grafikai látványvilág bekapcsolásával már 1080p esetén is bőven 8 GB fölé kúszik a memóriaigény. Pár eset csak úgy példaként.
Ráadásul az RTX 50-eknek legalább a következő nagyjából 2 év játékfelhozatalával meg kell tudniuk majd birkózni. A játékok memóriaigénye pedig egyértelműen növekedő tendenciát mutat, mert egyre részletesebb a képi világuk. -
PuMbA
titán
válasz
Hellwhatever #45393 üzenetére
Egyetértek. Ezek a moddolások semmire nem jók, mert az adott grafikai szintre készült játékmotorokat úgy leterhelik vele, hogy a gépigény a Holdig repül és emiatt a legtöbb esetben plusz akadozások is megjelennek.
[ Szerkesztve ]
-
Hellwhatever
aktív tag
-
Jacek
veterán
válasz
Busterftw #45391 üzenetére
Azert na, azert ez a vram igeny mert az NV ennyit hajlando szotyogtatni. Ettol meg a legalja.
Ha 50-50% lenne a piac kenytelen lenne tobbet adni mert tobbet kerhetnenek a gamek.Nade ne tapsoljunk ennek mar...
Hogy a piacot monopolgelytetben a markaban tarto ceg nem csak megszopat hanem meg megcsinal hatulrol es ennek sokat tapsolnak meg rajonganak.
Tevedesek elkerulese veget az AMD forditott helyzetben hasonlo kocsog lenne. Ezert lenne jo a piaci verseny nem ez a torzitott fos. -
GEIL
addikt
válasz
Devid_81 #45386 üzenetére
------------------------- i7 13700K - 64Gb DDR5 - RTX4070 ---------- i5 9600k - 32Gb DDR4 - RTX3060 ------------------------- ------------------------- PS5 --------------- ------------- Samsung A53 5G ------------ ------------ Xbox Series X ----------------------------
-
S_x96x_S
addikt
válasz
gejala #45308 üzenetére
> Mindig megy ez a VRAM károgás. UE5 játékok 4K maxon esznek 10-11 gigát.
Tényleg nem kell mindenkinek kaviár és 8K felbontás se - full max beállításokkal -
de akinek kell, azoknak nem árt a VRAM."Grand Theft Auto V Looks Mind-Blowing With Photorealism Mods in New 8K Video"
( RTX 4090 24GB VRAM demo )
https://wccftech.com/grand-theft-auto-v-mind-blowing-8k/
Azért ezek a modoknak nem árt egy kis extra:
https://www.razedmods.com/gta-v
https://gtareal.club/Amúgy megy a panaszkodás, hogy 1080p-n 21GB VRAM -ot használ:
"I installed the latest version of GTA 5, version 3095 along with some mods. NVE, Forest of San Andreas, HD roads, and a few others. Customized Gameconfig with pack file adjuster, and heap adjuster. When running the game, within about 10 minutes of game play around the map, I'm using upwards of 21GB of VRAM at 1080P. I run a RTX 3090, so I can some room, but is this normal? Just seems like a lot of memory." ( via )Mottó: "A verseny jó!"
-
yarsley
aktív tag
Reddit komment hogy miért 12GB-os az 5070, szerintem nagyon tanulságos. Mondjuk a 970-es résszel nem értek egyet, hülyeség volt azt a fél gigát felpakolni.
GB104 has a 192bit bus, you can only put one or two chips per 32 bits 192/32 = 6, so you can use 6 memory chips. 6 * 2GB is 12, hence the 5070 being 12GB. if you clam shell the memory which also requires more layers of PCB to do all the routing, you can do 6 * 2 * 2GB which is 24 GB. (there are ways around this, see GTX 970, and people got pissed off about it (I dont agree with the anger, it does not change the benchmarks which is what people based their purchase off of))
Why not do a bigger bus? well the bus cant be put just anywhere, it has to be on beach side. which means die perimeter and bus width are tightly correlated with each other, which means die size is tightly correlated.
Why is amd able to get a bigger bus for more memory? because they took the L2 cache off die. So they could make a rectangle shaped die to make a larger perimeter without increasing the die size significantly. This comes at a cost of the L2 having a lot more latency, but the overall package is cheaper because yields are way better with smaller dies.
The GB104 core gets ALL of the memory bandwidth it needs from 192bit GDDR7, there is not enough of a performance benefit going to 256bit to justify the massive increase in die space.
Why was this not as much of an issue in past generations? In past generations a wafer was sub 3000 USD for like N28, the current node N4 from TSMC is over 17000 per wafer. you cant just make large dies and sell the GPU for under 600 USD like you used to 10 years ago.
Speculatively, I think NVIDA thought 3GB GDDR7 would be out by end of q4 2024, since that was the roadmap from 2 years ago, but they are not out, so they have to run 2GB chips.
... ne úgy képzeld el, hogy te vagy Thomas azt mész amerre a sin visz. (c) virkir
-
S_x96x_S
addikt
""""
No info about RTX 5070 Ti
RTX 5080 performance cannot compete with RTX 4090. RTX 5080D might be cancelled. RTX 5090D is still on track.
RTX 5090/5080 launch in January. RTX 5070 won't be launched until Febuary.
"""
https://x.com/harukaze5719/status/1844238780288704763Mottó: "A verseny jó!"
-
S_x96x_S
addikt
Elemző cikk [1] ,
az AI GPU bérlési piac kipukkadásáról ( ami ~96%-ban nVidia )
A túlkereslet átváltott ---> túlkínálatbaEnnek ellenére - még tart a trend.
mivel a következő 12Hónapra már előre el van adva a Blackwell széria ,<spekuláció on>
Viszont, hogyha olcsón lehet bérelni, akkor ez - áttételesen/részben - a pici/home-office-os AI felhasználásra is kihathat, mivel az RTX4090, RTX5090 eladásokat főleg az AI iránti kereslet tolja. Persze lehet, hogy sokaknak ezután se változik a matek
és olcsóbb lesz RTX5090 -be beruházni.
A lényeg: hogyha valaki azért venne majd RTX5090 -et, hogy majd kiadja - bérbe,
akkor azt alaposan gondolja át.
<spekuláció off>--------------------
[1]"$2 H100s: How the GPU Rental Bubble Burst
H100s used to be $8/hr if you could get them. Now there's 7 different places sometimes selling them under $2. What happened?"
Oct 11, 2024 ; https://www.latent.space/p/gpu-bubbleTLDR: Don’t buy H100s. The market has flipped from shortage ($8/hr) to oversupplied ($2/hr), because of reserved compute resales, open model finetuning, and decline in new foundation model co’s. Rent instead.
(Unless you have some combination of discounted H100s, discounted electricity, or a Sovereign AI angle where the location of your GPU is critical to your customers, or you have billions and need a super large cluster for frontier model training)[ Szerkesztve ]
Mottó: "A verseny jó!"
-
gaben22
senior tag
Az a terv, hogy megyek most a generációkkal én is, valszeg benevezek majd 5090-re, mondjuk ha 1.4-1.5 millió lesz a kezdő ár, mint ahogy tippelem és megint hónapokat kell várni, hogy legyen készlet, akkor lehet csak szeptemberben, nyárra kell a francnak fűtőtest, 4090-et is "letekertem" (idle-n ketyegett). Mindenesetre Morgan Stanley (befektetési bank... meg sok minden más is) 450 000 Blackwell chip leszállítását prognosztizálja csak ez év decemberéig. Nem tudom ez milyen arányban fog osztozni, de ha most is a csúccsal kezdenek, akkor lehet ebben a számban az 5090 fog dominálni. Emlékeztetőül 4090 launch idején első hónapban 125 000-et adott el Nvidia, de az még az AI láz "elején" volt.
[ Szerkesztve ]
Eladó cuccok: Forza Audioworks - Copper Series IEM Mk2 IEM kábel
-
yarsley
aktív tag
Nem tudom milyen párhuzamos univerzumban élsz, de megjelenéskor a 4090-en kívül kb az összes kártya le lett szólva "dzsatuberek" által, volt róla jó pár cikk hogy a 4080 nem igazán fogy.
https://www.tomshardware.com/news/weak-worldwide-rtx-4080-sales-reported
https://www.notebookcheck.net/Horrible-RTX-4080-sales-allegedly-classify-GPU-as-worst-selling-High-End-card-in-major-AIB-s-history.761797.0.html... ne úgy képzeld el, hogy te vagy Thomas azt mész amerre a sin visz. (c) virkir
-
-
X2N
őstag
Ezek pontszámok, sajnos. Találtam tesztet ahol másodpercek vannak, erről beszélek(már ez is közel 1 éves teszt, aztóa gyorsabb is lett a blender állítólag):
4090 nem 2x gyorsabb mint a 3090, és a 3090 sem 2x gyorsabb mint a Titan RTX(2080Ti). Raszterben ennyi teljesítményugrás bőven jó lenne, generációnként... Ne röhögtess, bár így lenne, volt is rá példa nem is egyszer mint anno a 1080Ti-nél, de ez RT-ben édes kevés mert sokkal rosszabb a hatásfoka. Ebből a grafikonból csak az jön le hogy patika mérlegen van kimérve a teljesítmény és nincsenek olyan ugrások mint amik lehetnének egy új technológia bevezetésekor, mint pl most a chatgpt-nél....
[ Szerkesztve ]
-
válasz
gainwardgs #45350 üzenetére
Amúgy tök igaza van a Vrammal kapcsolatban,teljesen adom.Csak minek mellé a többi...
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Most én használjak helyetted googlet? [link]
Amúgy pont neked linkeltem be nem olyan rég,hogy ha szoftveres háttér lenne hozzá RTben mit tudna a 4090.De ez elmélet.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
X2N
őstag
Akkor cáfold meg, mutasd a grafikonokat hány másodpercel gyorsabb egy 4090 mint egy 3090, 2080Ti-hez képest Blenderben, mennyit gyorsult az RT rész az újabb kártyákon. Teszteli ezt egyáltalán valaki? Nvidia szerint is ez a fő feature-je a kártyának és nincs letesztelve csak játékokban...
[ Szerkesztve ]
-
Lassan remélem kivág innen valami moderátor a sok hülyeséggel ,egy AMD-s kártyával folyamatosan tolod a flamet.Ballagj át már az AMD topikba,told ott a marketinget vagy ellenmarketinget. teljesen szubjetív véleményt tálalsz általános igazságként.Miért csinálod ezt?
Egyáltalán nem értek egyet sem a minőséggel kapcsolatos kijelentéseiddel,de ha ezt én teszem az ugye egy Nv fan véleménye.Ráadásul az RT s hasonlatod külön vicc,hogy számon kéred azon a gyártón,aki a leggyorsabb RTben és fejlődik is.Ha betolja a full RT nv egy játékban az AMD-n diavetítés.mi a jobb? Engedd el ezt a vergődést itt.
A memoria kevés az 5070 nél.már akinek.Nekem nem.Majd lesz Supervagy 5070 Ti,nem kell megvenni semmit,ez egy hobbi.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Terek
tag
válasz
Alexios #45338 üzenetére
Az nv-t nemigazán érdekli,hogy az 5070 egy 4070ti sebességét fogja tudni( arra ott lesz a dlss 4 és az fg 2).Az nv jól megtanulta az elmúlt pár évben,hogy az emberek bármit megvesznek bármilyen áron és ezt kőkeményen ki is használja.Meglepő viszont a leak-elt árazásuk én magasabbara számítottam/számítok.Lesz egy kis hőbörgés megint aztán jönnek a lepénzelt dzsatuberek,hogy a kártyák milyen jól vannak árazva és pozicionálva és lehet venni aztán elül a vihar.
-
X2N
őstag
válasz
Raymond #45344 üzenetére
De éppenséggel beszélhetnénk arról is ugyanis ha nem lenne a felesleges raytracing amit a játékosok többsége úgy se értékel eléggé, akkor mostanra már minden játékot natív 4K felbontáson játszanánk minimum 4K textúrákkal stabil 60 fps mellett még a konzolon is...pc-n meg ehhez képest is 2x több fps-el, túl nagy kérés hogy pc-n legyen elérhető áron ennél kicsit több vram-al rendelkező kártya, RT nélkül? Így viszont marad a béka segge alá butított felbontásból felskálázás RT-vel(ami pontatlanul van kiszámolva mert nincs elég iteráció) meg a frame generélás ami nem oldja meg az input lagot, és a kép is okádék lesz ahhoz képest ahogy 7-8 éve kinézett egy AAA-játék a denoiser, plusz élesítés és TAA, és az interpoláció miatt. Úgy érzem visszafele fejlődünk.
Hány éve is jött ki az első RT-s kártya és ahhoz képest mennyit is fejlődtek ezek az RT-s kártyák? Mert szerintem nem sokat. RT teljesítményt meg nem méri senki objektíven...az hogy generációnként van 30-50% plusz gyorsulás RT-vel, kb semmire se elég az RT-hez, mert ott nagyságrendekkel kellene nagyobb teljesítmény minden generációnál ahhoz hogy értékelhetően tudd növelni a képminőséget. Ahhoz képest hogy új technológia nem sokat gyorsultak nvidiánál az újabbb szériás RTX kártyák, ennél még az intel is nagyobb gyorsulásokat tudott felmutatni egyes Intel Arch meghajtó driver optimalizálás után.
[ Szerkesztve ]
-
Raymond
félisten
Es megintcsak nulla konzisztencia - ha olyan a problemad ahogy itt leirtad renderelesnel akkor mire volt jo ez az egesz siras? Mert igy teljesen mindegy hogy 8 vagy 12 vagy 16 vagy akar 24 GB van a kartyan. A hozzaszolas masodik fele pedig mar vegkepp ertelmetlen mert nem jatekorol beszeltel.
Privat velemeny - keretik nem megkovezni...
-
X2N
őstag
válasz
Raymond #45340 üzenetére
Ha procin renderelek a 32GB memória már legtöbbször ki van fullozva, lassan érik a 64GB...én még nem is csinálok olyan őrültségeket mint egy komolyabb vízszimuláció houdiniban... pedig megtehetném, ezt esélyem sincs itthon GPU-val renderelni, kellene hozzá több darab 8000-es RTX kártya nvlinkel...én döntöm el mennyit érdemes rászánni, de jó lenne ha lenne általánosságban 20GB vram már a kártyákon a konzol miatt is. A 12GB már most vicc, csodálkoznak hogy stutterel a legtöbb játék, bezzeg ha lenne elég vram be lehetne tölteni mindent egyszerre, a procinak meg nem kellene ezzel állandóan foglalkoznia. A 4K miatt kell már ennyi vram, persze amíg megragadtok ilyen alacsony felbontáson lényegtelen, mit is magyarázok.
[ Szerkesztve ]
-
Alexios
veterán
válasz
Alogonomus #45341 üzenetére
Dehát a mostani 4070ti super fogyasztása se olyan brutális, 280w körül van, az előző oldali leak szerint meg 250 lenne az 5070 - ez azért elég minimális különbség.
Dlss4 persze logikus, csak akkor is lenne egy ugyanolyan teljesítményt tudó kártya, kicsit kissebb fogyasztással drágábban kevesebb vram-al. Vagy persze lehet nekem tűnik a 900$ túlzónak, még a 800 is lehet neccess lenne ha tényleg csak a 4070ti teljesítményét tudja(ez még csak nem is az a teljesítmény ahol ne lehetne verseny)
[ Szerkesztve ]
-
Raymond
félisten
A helyzet itt se valtozott semmit. Ha nem vagy kepes a hobbidra ennyit kolteni akkor mas hobbi utann kell nezni, mondjuk vonatok vagy madarak nezegetese.
Egyebkent teljesen ertelmetlenul ervelsz, milyen gyengebb kartyarol beszelsz? A problemad az volt hogy nem eleg a 8GB es azt irtad akkor veszel 16GB 4080S-t. Erre irtuk hogy ha a 16GB a fontos van olcsobb megoldas is. Ja hogy a 4080S-tol lassabb? Az, de nem az volt a problemad, egyebkent pedig az osszes 8GB es 12GB-ostol meg mindig gyorsabb.
Itt nem arrol van szo hogy en vedek egy ceget mert az hogy szukosen meri a VRAM-ot az NV soha nem volt megkerdojelezve. Amire ramutattunk tobben is az inkabb az, hogy logikatlanok az erveid.
Privat velemeny - keretik nem megkovezni...
-
X2N
őstag
válasz
Raymond #45337 üzenetére
Annak sincs sok értelme hogy véded ezt a céget aki szarik a fejedre. AMD kártya olcsóbb és több vram van rajta, ha az nvidia nem tudja ugyanezt adni ennyiért akkor ott nincs hozzáadott érték. Vehetek a 4080-nál gyengébb 4070ti kártyát 330eFt-ért? Nahát.
Ha még hobbiból renderel valaki otthon, ott se mindegy hogy akkor egész este megy a gép vagy csak 1 órát fut gpu...baj ha szeretném használni játék mellett erre is a gépet ha már vettem egy erős kártyát? Nekem már a 16GB is kevés renderelgetni. Ennyire jó minőségű dolgokat tudok csinálni, és még mindig hobbiból használok blendert...
Alexios-Semmi értelme. Komolytalan cég.
[ Szerkesztve ]
-
Raymond
félisten
1. Nem kell, vehetsz 16GB-os 4070Ti Super kartyat is
2. Ha (ahogy argumentalsz) munkara kell es problema az a kb. 230-290EUR ami a 12GB 4070S vagy 4070 es a 16GB 4070TiS kozott van akkor mas munkat kell keresni mert annak amit csinalsz semmi ertelmePrivat velemeny - keretik nem megkovezni...
-
Abu85
HÁZIGAZDA
Tipikusan már nem fognak akadozni, mert a mai textúra streaming rendszerek "intelligensek". A legújabbakat már eleve úgy tervezik, hogy ha elfogy a VRAM, akkor elkezdi kidobálni a textúrákat és automatikusan csökkentik a minőséget, hogy több VRAM maradjon. Tehát a VRAM egy jobb motorban ma már nem ott lesz korlát, hogy akadozik, hanem ott, hogy minőségvesztést okoz a grafikát tekintve.
Arról nem is beszélve, hogy manapság léteznek iszonyatosan jó memóriamenedzsment libek. VMA és D3D12MA. Ezekkel nagyon jól lehet játszani a VRAM terhelésével. Az a fura, hogy miért nem használja ezeket mindenki, mert van olyan módjuk, ami spórol a VRAM-mal, és úgy tényleg gigabájtokat lehet megspórolni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
X2N
őstag
Ilyen minőségben készülnek az assetek, pár éve. Elég csak megnézni a fegyvereket és animációikat az új COD-ban, van olyan ami csak magában több mint 20GB-ot foglal olyan minőség...pár éve még ment a fikázás hogy nem elég jó a grafikája a BF mellett...fotoreális grafikát akartok? Akkor azokat a modelleket,textúrákat ilyen minőségben kell megcsinálni.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Valószínűleg nem kellett ezt újratervezni az elejétől, mivel alapvetően a parancsmotor számít, tehát azt eleve tervezhették már korábban, és úgy döntöttek, hogy akkor előre hozzák az RDNA 4-be. De nyilván nem tudták már mindegyik GPU-ba beépíteni, így töröltek hármat, és terveztek két újat.
Valószínűleg nem volt olcsó. De azt mi nem láthatjuk, hogy mennyi UE5-ös cím érkezik, ami majd Work Graphs képességet használ.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
X2N
őstag
válasz
szmörlock007 #45327 üzenetére
Fejezd már be, azért mert nem értesz hozzá még nem kell osztani az észt, nézd már meg mennyivel több textúrát használunk a PBR miatt és ezek mindegyike legalább 4x nagyobb felbontású mint régen. Csak a videokártya memóriája ezt nem követte le...
[ Szerkesztve ]
-
szmörlock007
aktív tag
Hát mondjuk ha valakinek ez a munkája, akkor nem kéne gondot okozni egy 24 gigás RTX 4090 megvételének a célra.
Nyilván ettől függetlenül szomorú, hogy nincs olyan fejlődés mint régebben.#45326 S_x96x_S
Ez annyit jelent, hogy ezekre is elérhetővé tettek bizonyos szoftvereket, aki akar az ránézhet, illetve akinek az adott kártya megfelel hobbicélokra, az használhatja. De a kártya tervezésénél nem lesz szempont, hogy melyik Geforce-ba mekkora AI modell fér bele. Nvidia nem ezeket akarja eladni AI-ra. Ezek gaming kártyák még mindig.
[ Szerkesztve ]
-
S_x96x_S
addikt
válasz
szmörlock007 #45323 üzenetére
> Ez olyan mintha valaki amiatt károgna
> hogy a 16 gigába neki nem fér bele az AI modell.
> A Geforce vonal az gamingre van,Az már nem teljesen igaz.
Jensen : "all the RTX gaming PCs - they now become an AI PC."
( via )""""
Q: What is NVIDIA’s strategy for AI PC this year? Will NVIDIA consider launching an NPU in the future?
A: We started working on AIPC nine years ago when we launched RTX. This year we launched digital humans for gaming, and the API is called ACE. You can put digital humans in your game, and you can have a digital human in the computer helping you play the game. That’s our G-Assist tool. Everything we worked on for RTX will work for AI now, almost a decade in the making.Q: Will we see new chips from NVIDIA that support the new Copilot features?
A: Microsoft has announced that RTX architecture products will support the Copilot runtime."
"""Mottó: "A verseny jó!"
-
X2N
őstag
válasz
szmörlock007 #45323 üzenetére
Persze mert a 48GB-os NVIDIA Quadro RTX 8000-ak a fán nőnek, de ha kettőt szeretnék a sebesség miatt akkor azt majd ennek az árát zsebből simán előhúzom. Mellesleg nincs szükségem az ECC vram-ra amit ezek a kártyák tudnak, se a szoftveres körítésre... 12GB-os kártyát már 10 éve lehetett venni. Még most is ott tartunk hogy ezt se sikerült megduplázni egy átlag kártyán...
[ Szerkesztve ]
-
szmörlock007
aktív tag
"Rendereljek a 10X lassabb procin mert nem fér bele 16GB vramba a blender render???"
Már nem azért de ha meló miatt renderelsz, arra a pro kártyák vannak (mint geforce quadro, igaz mostmár máshogy hívják, meg radeon pro). Ez olyan mintha valaki amiatt károgna hogy a 16 gigába neki nem fér bele az AI modell. A Geforce vonal az gamingre van, minden másra csak opcionális használatos, de semmilyen szinten nem szempont tervezésnél a Geforce-nál, hogy mekkora AI modell fér bele, vagy mennyi kéne Blenderre.
-
T.Peter
őstag
[link]
Csak ismetelni tudom magam. Milyen jo lesz 5 ev mulva is 12GB-ra optimalizalni. Hurra. -
S_x96x_S
addikt
Amúgy a jelenlegi technológia hamar elavul
és a DLSS10 környékén már a neurális képgenerálás lesz a trendi."Nvidia’s Catanzaro" .... “DLSS 10 (in the far far future) is going to be a completely neural rendering system,” he speculated. The result will be “more immersive and more beautiful” games than most can imagine today."
( via "Nvidia Hints at DLSS 10 Delivering Full Neural Rendering, Potentially Replacing Rasterization and Ray Tracing" )
Mottó: "A verseny jó!"
-
Ezek a kártyák legelsősorban játékra vannak pozícionálva (a Radeonok is). Ha renderelni akarsz, arra van másik termékskála. Nyilván a gaminges olcsóbb, de ha ezen akarsz spórolni, akkor nyeld le, hogy kompromisszumos.
Én amúgy szintén siralmasnak tartom ezt a sóherkedést a VRAM-mal, de a render baromi rossz érv emellett.Én amúgy tudom, mennyivel jobb a 4K - messze nem annyival, mint amennyivel többe kerül ökoszisztéma szintjén. Nekem.
"Piroska és Berci, a farkas / Századunk hősei most."
-
S_x96x_S
addikt
válasz
gejala #45308 üzenetére
> Mindig megy ez a VRAM károgás.
> UE5 játékok 4K maxon esznek 10-11 gigát.
> 5070 1440p kártya lesz, DLSS quality
> mellett simán jó lesz 12 giga az új konzolokig.De mi lesz az új játékokkal?
pl ott van az NVIDIA ACE technológia ami akár 2-3-8 GB -ot is elhasználhat
a drága VRAM-ból.
Ez pl. 1 éves demó az nVidiától:
https://www.youtube.com/watch?v=cSSSn10HgZA
https://developer.nvidia.com/ace/get-started/
és az első game -et már beharangozták pár hónapja:
"Announced at Gamescom, ‘Mecha BREAK’ from Amazing Seasun Games is the first game to showcase ACE technology, including NVIDIA Nemotron-4 4B, for quicker, more relevant responses."
"ACE NIM microservices run locally on RTX AI PCs and workstations, as well as in the cloud. Current microservices running locally include Audio2Face, in the Covert Protocol tech demo, and the new Nemotron-4 4B Instruct and Whisper ASR in Mecha BREAK."
https://blogs.nvidia.com/blog/ai-decoded-gamescom-ace-nemotron-instruct/Persze lehet cipőkanállal optimalizálni, ott a DirectStorage és a Gen5,
de a trend szerintem az, hogy hamarosan kevés lesz a VRAM.És én nem hiszem el hogy 64K/1024K/640MB/64GB/* mindenre elég.
[ Szerkesztve ]
Mottó: "A verseny jó!"
-
Raymond
félisten
-
X2N
őstag
válasz
Raymond #45313 üzenetére
Nem csak játékra lehet használni azt a retkes kártyát.
Jogos a károgás mert nincs előrelépés évek óta. Megrekedtetek az 1080p-1440p felbontáson, így fogalmatok sincs mennyivel jobb a 4K... Rendereljek a 10X lassabb procin mert nem fér bele 16GB vramba a blender render???
[ Szerkesztve ]
-
Busterftw
nagyúr
válasz
yarsley #45314 üzenetére
Kb Pascal ota hallgatjuk ezt, hogy "Nvidia csakennyivrambezzegAMD", aztan valamiert nem crashelgetnek a jatekok es az user be tudja allitani, 4-5 ev mulva, ha meg azon akar jatszani.
Foleg ujabban a kulonbozo cache-k hasznalataval teljesen rohejes mar ez a vram tema.
AMD-nel mindig elobb fogyott el a GPU, minthogy a tobb vram megmentette volna.Illetve pontosan ez a "jovore" jo lesz artott nagyon az AMD-nek. Az userek tobbsegenek nem az kell, hogy vasarlas utan 1 ev utan megjelenjen az ev vegi csodadriver, meg hogy majd 3 ev mulva elonye legyen a tobb vramnak.
Vasarlaskor adjon jo elmenyt a kartya.[ Szerkesztve ]
-
yarsley
aktív tag
válasz
Raymond #45313 üzenetére
Nincs is jobb mint mikor veszel egy 300-400k-s videókártyát, és 2-3 év múlva azzal "szórakozol" hogy melyik grafikai beállítást kapcsold ki hogy ne crashseljen a játék vagy ne tűnjenek el a textúrák.
Szerintem a kockák túlnyomó többsége nem 1-2 évre vesz videokártyát hanem 4-5-re vagy amíg be nem adja a kulcsot.... ne úgy képzeld el, hogy te vagy Thomas azt mész amerre a sin visz. (c) virkir
-
-
Quadgame94
őstag
Én nem is értem a rációt az NV szegmentálásában. Ha nem kapnak az emberek jó árakat akkor sokakban felmerül, hogy mégis mi értelme van ennek a generációnak? Mehetett volna egy Ada Refresh, mert az AD103 elbírta volna bőven.
AD103 v GB203:
- 10752 v 10752 Cores
- 392 mm2 v kb. 350 mm2 -
yarsley
aktív tag
Ha a csúcs Radeon $999 lesz vagy ahhoz közel az mekkora beégés lesz már a leakereknek
KB ugyan akkora beégés lesz AMD-nek is, ha az a csúcs kártya csak annyit tud mint a RTX 4080, mert a népek akkor inkább azt választják, vagy nem vesznek semmit.
Nekem nagyon gyanús, hogy ez a "leak" AMD-től csak azért "szivárgott" ki, hogy jobban fogyjon az RDNA 3 készlet.... ne úgy képzeld el, hogy te vagy Thomas azt mész amerre a sin visz. (c) virkir
-
fLeSs
nagyúr
A VRAM "károgást" ki kezdte el?
Mert én az MLID-re és a HUB-ra emlékszem.
Egyébként én is úgytom/gondolom, hogy nem az a lényeg mennyi RAM-ot eszik a játék az Afterburner szerint, hanem hogy akadozik-e a játék.[ Szerkesztve ]
"Consider if you change your perspective about life, you have changed your experience of life."
-
fLeSs
nagyúr
Csak emiatt a Work Graphs miatt újratervezték az egész generációt és csak emiatt újrakezdték a chipek tervezését is mindennek együtt? Az nem megy túl gyorsan és nem olcsó mulatság.
"Consider if you change your perspective about life, you have changed your experience of life."
-
gejala
őstag
válasz
gainwardgs #45301 üzenetére
Mindig megy ez a VRAM károgás. UE5 játékok 4K maxon esznek 10-11 gigát. 5070 1440p kártya lesz, DLSS quality mellett simán jó lesz 12 giga az új konzolokig.
-
Devid_81
félisten
Sztem legyen az RDNA4 csucs es az 5070 $1999 es NV mehet feljebb a tobbivel, majd amikor a jelenlegi generaciohoz kepest felet sem adjak el ossz darabszamra akkor ujra fogalmazodik bennuk, hogy miennyit er.
...
-
Abu85
HÁZIGAZDA
Igazából nem egy Navi 4x lett törölve, hanem három. Amúgy már kint lenne a teljes sorozat. A gondot sem hardveres probléma okozta, hanem egy jóval korábban meghozott döntés a Microsoft részéről. Régóta levegőben lógott az, hogy az ExecuteIndirect nem elég jó, a Microsoft fülét rágta folyamatosan az Epic, hogy nekik így lassan működik például a Nanite, stb. Erre volt két megoldási javaslat, amit az NV és az AMD adott le. Aztán a Microsoft végül az AMD megoldását választotta, és azt szabványosították mára Work Graphs néven. Na most ezt a mostani legújabb GPU-k ugyan támogatják, de nem olyan jó hatékonysággal, mint elméletben kivitelezhető lehetne. Az AMD erre készült is egy erre formált hardverrel, aminél nem csak 30-40% között gyorsít a Work Graphs, és azért lett újratervezve az egész RDNA 4 generáció, hogy ezt a hardvert be tudják építeni. És elsődlegesen ez az Unreal Engine 5 miatt fontos, mert az Epicnek kritikus képesség a Work Graphs, ezzel tud igazán gyorsan futni a motor. Persze megmarad a fallback mód, ami most van, de az még ExecuteIndirect módszerrel dolgozik egy rakás trükköt bevetve, nem túl előnyös sebességű global atomics is van benne, ráadásul a procit is terheli. A Work Graphs módszer ezektől mentesül.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
fLeSs
nagyúr
válasz
gainwardgs #45301 üzenetére
Jó, de aki nem tud/akar várni az megveszi majd amit éppen tud, nem is biztos, hogy lesz majd 5000-es Super széria.
A 70-es kártyák elvileg a középkategória, szóval eléggé releváns, hogy mi a helyzet vele."Consider if you change your perspective about life, you have changed your experience of life."
-
fLeSs
nagyúr
Ha a csúcs Radeon $999 lesz vagy ahhoz közel az mekkora beégés lesz már a leakereknek, akik azt szajkózták, hogy Navi31 sebességet kapunk majd $500-600-ért mert hogy a legcsúcsabb csúcs Navi-t (41?) azt cancel-ezték.
Ha ez igaz amit mondasz, akkor már az AMD is a középre pozícionált GPU-t fogja $999-ért adni. Durva lehúzás fog itt menni, az NV vezet, az AMD meg szíves örömest beáll mögé.
De ez már a másik topikba való.[ Szerkesztve ]
"Consider if you change your perspective about life, you have changed your experience of life."
-
szmörlock007
aktív tag
"De a perf/wattban nagyon nagy az előrelépés az új node miatt, és azt ki fogják fizettetni."
Kíváncsi vagyok, hogy vajon a Tsmc 3nm-esre ugranak, vagy húznak egy merészet, és mennek a Samsung Gaafet-es node-ra. Legalábbis tippre egy egyedi 4nm-es tsmc node-ból nem kéne olyan nagyon nagy perf/watt előrelépésnek lennie, aztán ki tudja.
[ Szerkesztve ]
-
gainwardgs
veterán
5070 nem igen lesz releváns szvsz. 12gb miatt, kb jövő játékaiban max 1080p-re való.
Ugyanazt eljátszák sztem mint superekkel, először beetetik a népet, új rtx 5000 széria dlss4.0 akármi 4000 széria nem támogatott stb., aztán jöhetnek később superek jobb vram/cuda count-al az eredetihez képest majdnem azonos áron.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Kávé kezdőknek - amatőr koffeinisták anonim klubja
- Okos Otthon / Smart Home
- Multimédiás / PC-s hangfalszettek (2.0, 2.1, 5.1)
- Samsung Galaxy S23 és S23+ - ami belül van, az számít igazán
- AMD Ryzen 9 / 7 / 5 9***(X) "Zen 5" (AM5)
- SONY LCD és LED TV-k
- Apple notebookok
- Digitális Állampolgárság Program DÁP
- Samsung Galaxy A55 - új év, régi stratégia
- Használható a Windows 11 aktiválás nélkül hosszú távon?
- További aktív témák...
Állásajánlatok
Cég: Marketing Budget
Város: Budapest