-
IT café
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
nagyúr
válasz S_x96x_S #44944 üzenetére
Ezek nem adódnak össze, (közel) 10% teljesítménynövekedésed akkor lesz, ha minden (független) kapacitást 10%-kal megemelsz. Ami összeadódik ezekkel, azok az architektúrás javítások, valamint az órajel.
Ha tényleg ilyen hurka lesz az 5080 configja, akkor lehet, hogy valami komolyabb órajel-emelésre készülnek (anno a Pascal is elég vékonynak tűnt, aztán mekkorát szólt) - valamire csak elmegy az a +25% TDP..."We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
FLATRONW
őstag
válasz -=RelakS=- #44942 üzenetére
Azért itt is látszik, hogy teljesítmény/fogyasztás terén mennyire belefutottak a késbe a Samsunggal, mennyire visszafogta őket a 8nm.
Most hogy nincsenek ilyen gondjaik, ki is jött a különbség a konkurenciával szemben, így megengedhetik az ilyen húzásokat.
Ettől függetlenül én sem hiszem, hogy ekkora különbség lesz a két GPU között. -
S_x96x_S
addikt
> Ezzel együtt az 5080-as pletyka elég viccesen néz ki
Talán a Kínai piaci embargó miatt nem erősebb,
Az RTX 5080 -as teljesítménye nem mehet a 4090D - felé,
sőt meg se közelítheti, hogy legyen tér az 5090D-nek.Persze egy "RTX 4080 Super" mellett meg még furcsább az új 5080 pletykált konfigja.
Mottó: "A verseny jó!"
-
yagami01
aktív tag
válasz S_x96x_S #44944 üzenetére
Nem csak az AI-ra lenne jó persze, van sok más amihez szintén jól jön a teljesítmény.
Viszont Kopite azt írja, hogy a 600W ellenére még mindig áll, hogy 2 slotosak lesznek a hűtők. Pedig én azok közé tartozok, akiknek tetszettek a 4xxx bitang hűtői. Na meg amúgy is, ha ez igaz, kíváncsi leszek a hőfokokra vagy, hogy ezt hogyan oldják meg...
-
S_x96x_S
addikt
válasz yarsley #44940 üzenetére
RTX4080 -> RTX 5080 - között
akkor - nem lesz valami egetverő teljesítmény növekedés :
SMs: 76 -> 84
CUDA: 9728 -> 10752
MBandwith: 717 Gb/s -> 784 Gb/s
( az értékek a videocardz-os táblázatból )
Persze a sok - kis ~10% - akár össze is adódhat 20-30% -ra is.
Ami ismeretlen nekem, az a várhatóan PCIe Gen5 - által okozott teljesítmény növekedés, ami a szorosabb latency követelmények miatt talán kimérhető majd.Az RTX 5090 32GB-s verzióra meg ráugranak a Homeoffice-os AI fejlesztők.
A Tinygrad -nak már van "6x 4090" és "8x 4090" -es konfigja is,
és gondolom ebből is csinálnak majd valami hasonlót.
Úgyhogy az RTX 5090 32GB -t első körben hamar el fogják kapkodni, hogyha túl olcsón adnák .. de gondolom annyira nem fogják túl olcsón adni.[ Szerkesztve ]
Mottó: "A verseny jó!"
-
nagyúr
válasz -=RelakS=- #44942 üzenetére
A 3080 / 3090 nem igazán jó összevetés, mert ott kényszerből tornászták feljebb a 3080-at, sejtették, hogy a 104-es chip kevés lesz az AMD hasonló kategóriájú kártyája ellen.
Ezzel együtt az 5080-as pletyka elég viccesen néz ki, én azért mérget nem vennék rá."We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
yarsley
aktív tag
-
-=RelakS=-
veterán
válasz Amazing789 #44937 üzenetére
Ugye nem használtál CRU-t? (Custom Resolution Utility)
Itt streamelek játékot időnként: https://www.twitch.tv/relaks__
-
Busterftw
nagyúr
válasz Amazing789 #44937 üzenetére
Elso korben DDU-val pucold le a drivert, aztan tedd ujra.
-
bobalazs
nagyúr
According to a SemiAnalysis report, a mismatch in the coefficient of thermal expansion (CTE) of Blackwell chiplets and packaging materials caused the failure.
Nvidia's B100 and B200 GPUs are the first to use TSMC's CoWoS-L packaging, which links chiplets using passive local silicon interconnect (LSI) bridges integrated into a redistribution layer (RDL) interposer. The precise placement of these bridges is crucial, but a mismatch in CTE between the chiplets, bridges, organic interposer, and substrate causes warping and system failure. Nvidia reportedly had to redesign the GPU's top metal layers to improve yields but did not disclose details, only mentioning new masks. The company clarified that no functional changes were made to the Blackwell silicon, focusing solely on yield improvements. -
Abu85
HÁZIGAZDA
válasz Hellwhatever #44930 üzenetére
Ne törődj vele. A 850 watt sem volt pontos ajánlás.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Hellwhatever
aktív tag
Ez lemaradt az előzőből: ...mint fél évvel is alig kapni értelmes...
Néztem én is, úgy voltam vele ha másért nem is talán a finomított csatlakozó miatt biztosabb lesz a 3.1 s butítás ellenére is.
Külön poén az hogy tavaly volt nálam egy 1200W-os FSP Fortron Hydro PTM PRO csak mire megjött és összeraktam a gépet pont másnap jelentették be a 3.1-et úgyhogy ment is vissza szegény még melegében.
9800X3D | ASRock X670E Steel Legend | Corsair 32GB DDR5 6000MHz CL30 | Gigabyte RTX 4070S WINDFORCE OC
-
nagyúr
válasz Hellwhatever #44930 üzenetére
Nem vagy egyedül, bár én már a 2000-es széria óta kívánom őket a 'csába a fogyasztás miatt
"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
PuMbA
titán
válasz Hellwhatever #44930 üzenetére
A poén az, hogy a 3.1-es ATX szabvány specifikációja lazább, mint a 3.0-ás
"Shorter Hold-Up Time
Measured in milliseconds, hold-up time indicates how long a PSU can sustain its output within specified voltage limits after a loss or drop in input power. ATX 3.1 features a shorter hold-up time of 12ms, compared to ATX 3.0's 17ms hold-up time."
Illetve kijött sok 3.0-ás táp az új 12V-2x6-os csatlakozóval, tehát egész nagy katyvasz lett az egész és nem feltétlenül jobb egy 3.1-es szabványú táp a 3.0-áshoz képest.
[ Szerkesztve ]
-
Hellwhatever
aktív tag
Gyönyörű lesz, 2 hónapja vettem 1000W-os ATX 3.1-es FSP Fortron VITA GM-et a jövőbeli flagship alá mert egyszerűen nem volt más értelmes 1000+W-os 3.1-es táp. 3.0-át meg direkt kerültem ha már eddig nem nyúltam bele, gondolom nem vagyok egyedül.
Tápgyártóknak is jár a keksz btw hogy akkora gyökerek hogy egy minor szabvány változás bejelentése után több mint fél évvel is kapni értelmes 1000+W-os 3.1-es tápot.
[ Szerkesztve ]
9800X3D | ASRock X670E Steel Legend | Corsair 32GB DDR5 6000MHz CL30 | Gigabyte RTX 4070S WINDFORCE OC
-
Abu85
HÁZIGAZDA
válasz deathcrow42 #44924 üzenetére
A "Minimum recommended PSU" 1200 watt lesz. De ez nem sokkal több, mint a 850 watt, ami a 4090-hez van írva hivatalosan ilyen ajánlásként. Meg ugye ezek az ajánlások nem igazán pontosak.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
félisten
válasz deathcrow42 #44924 üzenetére
Majd megint lesz sÍrás rívás itt egy két emberkétől hogy javult a perf/ watt. kb senki nem tud semmit hogy ez mit takar, ha igaz. Egy tervezett 5090 Ti SKU vagy professzionális bármi vagy csak biztonsági intézkedés a szar csatlakozók miatt. Amúgy nem kell új táp, átalakító kell a régihez.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
hahakocka
őstag
válasz deathcrow42 #44924 üzenetére
Na akkor lesz ingyen ajándék tűzijáték is most már mellé? A 600W elég valószínűnek tűnik így s vajon mekkora lesz 50 cm? Tudjuk a méret számít na de ennyit?
[ Szerkesztve ]
-
Alogonomus
őstag
válasz deathcrow42 #44924 üzenetére
Hát akkor nem véletlenül tettek dupla csatlakozót a 2,2 kW-os tápra.
Korábban is a tápegységek méretezési dokumentumaiból derült ki, hogy az Alder Lake hatalmas fogyasztással érkezik. -
Devid_81
félisten
válasz deathcrow42 #44924 üzenetére
Legalabb eloszlik az aramfelvetel, vagy 2 csatlakozo fog olvadni ezentul es nem csak egy
...
-
deathcrow42
aktív tag
“TweakTown reports that the RTX 5090 could come with two 16-pin power connectors”
Szép, mehet az új táp is az 5090 melléEx frostshock.eu szerkesztő :)
-
-=RelakS=-
veterán
Itt streamelek játékot időnként: https://www.twitch.tv/relaks__
-
-=RelakS=-
veterán
válasz Teasüti #44921 üzenetére
Azért, mert a kép áll, a szemed viszont mozog.
Nyisd meg az UFO teszt weboldalt, és kövesd a szemeddel a 15fps ufót. Elég randán ugrál, és elég nagyokat, igaz? Na, 120Hz-en ugyanez történik, csak nem 15-ször, hanem 120-szor ugrik az ufó, és 8-ad akkorát. Ezt a szemed már elmosódásként fogja feldolgozni.Amit beraktál tesztképet, ott pont az lenne a lényeg, hogy megmutassák, hogy mozgás közben mennyire mosódik el a kép, így hosszú záridőt fognak használni, egyszerre több képfrissítés is a képre kerül. A kamera együtt mozog a képpel. Minél magasabb a kijelző frissítése, annál élesebb lesz a kép. Minél tovább van egy képkocka megjelenítve, annál szélesebb téglalap fog egy szürke masszává összeolvadni (a képen a 8-as, ami 120Hz-es képfrissítésre enged következtetni, de mintha ezt is írtad volna) Ha van BFI, akkor természetesen rövidebb ideig jelenik meg a kép, keskenyebb téglalapok fognak összeolvadni (pl a képen ez lehetne 60Hz-es kijelző is, 1:1 BFI-vel)
RTIGS pursuit photo olvasnivaló
X2N
próbáltam backlight strobingot, tényleg jó éles, de a panelemen nem kompenzálják a fényerőt, szóval maradok a 240Hz-nél[ Szerkesztve ]
Itt streamelek játékot időnként: https://www.twitch.tv/relaks__
-
Teasüti
nagyúr
válasz -=RelakS=- #44918 üzenetére
Sose értettem a sample&hold miért nem ad éles képet. Attól, hogy nem a képterület 100% kerül kirajzolásra minden ciklusban hanem csak egy része és nincs BFI, attól még a kirajzolás semmivel se tart tovább, mint egy CRT-n.
A kamerán meg remélem azért van annyi esze a tesztelőnek, hogy a záridőt azt leveszi minimumra. Elvégre nem lehet 1 ms körüli válaszidőket fényképezni ennél lassúbb záridővel. -
X2N
őstag
válasz -=RelakS=- #44918 üzenetére
Szerencsére van backlight strobing és 540Hz-es tn panel gamereknek crt alternatívájaként. Backlight strobing-ot tudom ajánlani egyébként még alacsonyabb Hz-el is sokkal többet ér mint 2x annyi Hz strobing nélkül...
[ Szerkesztve ]
-
PuMbA
titán
De hogy az észszerűségnél maradjunk egy 240Hz-es LCD-nél vagy OLED-nél több már kisebb különbséget hoz, tehát ezeknek van valós esélye, hogy igazán elterjednek, mert látványosabb a különbség és a frame generation is sokat segít, hogy elérjük ezeket az fps számokat.
Én 80fps-ről 160-ra használok frame generation-t a 165Hz-es monitoron a Cyberpunk 2077 esetén és hihetetlenül jól működik. Kipróbálás előtt azt gondoltam, hogy simán rájövök, de az esetek 98%-ában nem tudtam megmondani, hogy mesterséges képkockákat látok, nagyon-nagyon kevés a képhiba ennyi képkocka esetén. Nem véletlenül ajánlanak 60+fps-t hozzájuk.
[ Szerkesztve ]
-
-
PuMbA
titán
válasz Teasüti #44916 üzenetére
Az OLED pont ugyanúgy viselkedik ebből a szempontból, mint az LCD. Igaz hogy insant jelenít meg képet, tehát nem csinál valamennyi plusz utánhúzást, mint az LCD, de ugyanúgy sample and hold megjelenítő, mint az LCD, tehát két kép között nem kapsz feketeséget, ami alaphelyzetbe állítaná a retinát, mint a CRT. Ezért az OLED-nél is szükséges a magasabb frissítési ráta, hogy CRT-vel vetekedjen. Nem véletlenül vannak 480Hz-es OLED-ek. Ezek már szinte CRT szintet hoznak.
[ Szerkesztve ]
-
Teasüti
nagyúr
Mit értünk CRT szint alatt? OLED tud instant képet megjeleníteni, erre ilyen képet lőnek rajta a teszten 120 Hz-en. Miért nem tűéles a kép mozgás közben?
Ez remélem mesterséges motion blur, mert egy OLED-től azt várom el, hogy jelenítsen meg 120 tűéles képet egymás után másodpercenként. Mint mikor a MILC gépen 1/3200s záridővel videózol. -
X2N
őstag
Techpowerupon amúgy is rendszeresen szokott lenni a legújabb játékokkal teljesítményelemzés így nem sajnálom hogy kicsit régebbi címek vannak a tesztükben mert így összehasonlítható a régi tesztekkel. Amennyire "optimalizáltak" az utóbbi 1-2 évben megjelent játékok mindegy milyen kártyát veszel úgyse fog jól futni. Majd úgyis bekapcsoljuk a DLSS-t, FSR-t!.
[ Szerkesztve ]
-
PuMbA
titán
"Ha nem tetszik reklamáld meg hogy miért ilyen címekkel játszanak."
Kevesen vesznek új VGA-t drágán, hogy régi címekkel játsszanak, amik már az előző kártyájukon is elég jól mentek A legtöbb embernek ezért van gyengébb VGA-ja, amit a Steam felmérésben is láthatunk, mert felesleges újat venniük 5+ éves játékokhoz. Ha meg új játékokkal nyomják, vesznek újat.
"4K 60 meg teljesen jó, felesleges itt vergődni a nagy framerate miatt, ez csak multinál számít ott is csak maximum 144Hz-ig a netkód miatt..."
Szerinted Én játszottam sokat CRT monitoron meg CRT TV-n konzolokkal a 2000-res évek elején és nem csak multinál számít. Az én személyes tapasztalatom ez.
[ Szerkesztve ]
-
X2N
őstag
Nem mindenki akar a legújabb agyonoptimalizált címekkel játszani amik úgy se néznek ki mint egy 10 éves játék 70euróért Ha nem tetszik reklamáld meg hogy miért ilyen címekkel játszanak. Szerintem elég jól összeválogatták, sok féle engine van, felesleges mindig csak legújabb címekkel tesztelni, főleg hogy a legtöbb az nvidia féle raytracinget erőlteti...
4K 60 meg teljesen jó, felesleges itt vergődni a nagy framerate miatt, ez csak multinál számít ott is csak maximum 144Hz-ig a netkód miatt...[ Szerkesztve ]
-
PuMbA
titán
válasz Teasüti #44904 üzenetére
Azt se felejtsük el, hogy a grafikonon szereplő játékok nagy része ősrégi Witcher 3? RDR2? Battlefield V? 5+ éves játékok, jó hogy futnak 4K 60fps-sel egy olcsó VGA-n. Ez a grafikon teljesen értelmetlen 2024-ben. Ha teleraknánk csak tavalyi és ebben az évben megjelent játékokkal, akkor teljesen más eredményt kapnánk.
Másrészt amit mondasz....4K 60fps jó, ha főleg állóképet nézel, de mozgás közben egy 1440p 165Hz sokkal tisztább képet ad az LCD és az OLED mozgás
[ Szerkesztve ]
-
X2N
őstag
válasz Teasüti #44908 üzenetére
Napi szinten raytracelt 3D renderelt képeket generálok úgyhogy van róla némi fogalmam . Ezért vettem 16 magos procit, meg 24GB vramos vga-t, mert csomó ideig nem lehetett több vram-al nvidia kártyát venni...Amit ma játékokba látsz az meg se közelíti azt a minőséget amit raytracingelni lehetne, ha lenne elég erős hardver rá. Mert ez a cél nem? CGI film minőségű render...4k felbontáson(pedig filmre is csak 1080p-be renderelnek a pénz/idő miatt... Én pont a tükröződéseket szeretem jobban mint az árnyékokat. Legtöbben szerintem le se sz.rják milyenek az árnyékok, mert alapvetően senki nem szokta nézegetni hétköznap hogy vet árnyákot a nap egyes tárgyakra, ezért nem is tudja a legtöbb ember hogy kellene kinéznie játékban. Míg a tükröződést mindenki tudja hogy kellene kinéznie, messze nem úgy ahogy raszterbe alacsony felbontással trükközve megoldva és nem csak tükrök vannak a játékokban hanem rengeteg vizes felület a karakterek bőrén/szemén is kell tükröződést számolni, ...a GI persze alap, azt össze se lehet hasonlítani a raszterizációval.
[ Szerkesztve ]
-
félisten
válasz Teasüti #44908 üzenetére
Hu tesztre gondolsz? ha jól tudom itt lehet kikeresgetni őket : [link]
A HU tesztnél problémás volt az MSI kártyájuk,de ezt el is mondják ha jól tudom a 4080 super tesztben korrigálták a 4007 Ti super eredményeket, itt : [link][ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Teasüti
nagyúr
Natív 4K-ban mértek, vagy skálázva vannak?
X2N
Ha így állunk hozzá hogy raytrécing kell akkor kb semmi se jó csak a 4090 de az csak 1080p-re maximum szódával elmegy kategória...
Az a baj, ha már láttál realisztikus RT árnyékot, akkor minden régi technika piszok hamar ki fog tűnni és elrontja a grafikát. RT reflection-ről hajlandó lennék lemondani, azt elég jól tudjuk hamisítani. De realisztikus árnyékot nem tudunk vetni hamis technikával. RT ambient occlusion, nap vetette hard light, fényforrások vetette soft light. Ezek mind szódával elmegy kategória, de egy RT global illumination mellett nagyon hamar kilóg a lóláb.[ Szerkesztve ]
-
félisten
nem "fogtam arra" hanem tényként közölltem, ott van feketén fehéren a te általad berakott képen.
láthatod hogy ez teszt függő. alkalmas a 4070 Ti super is RT vel játékra mint hogy az 7800XT raszterben. [link]
Computerbase közil mindíg a pontos játékgrafikai beállításokat minden címnél.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
Szerintem is drága a 4070 Ti super .. de a 71 FPS átlag úgy van meg 7800XT nél hogy benne van egy Doom 170 FPS sel és eltorzítja az egész képet. valójában a 7800XT ezt tudja nem hogy max , hanem finomított beállításokkal is: raszterben: százalékkal és konkrét számmal:
és ezt RT ben mindkét kártya :
messzebb van a 7800 XT raszterben 4 K ban a 60 FPS től ( 51) mint amennyire 4070 Ti super RT vel 4 K ban a 60 FPS től ( 58)
Radásul a 4070 Ti superrel raszterben is meg van a 4 K ban a 60 FPS átlagban ezekkel a beálításokkal míg ugyan azon beálításokkal. teljesen más liga a 7800XT..[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Teasüti
nagyúr
E grafikon alapján csak a szereplők 68%-ánál van meg az átlag 60 fps.
Ahol nincs meg ott meg ilyen xbox360 szinten vagyunk teljesítményben.
Régen volt már. Annyira régen volt már a 30 fps sztenderd, hogy nekem újabban a 30 fps átvezető videók is kellemetlenek a szememnek (jó, ez mondjuk videós szemszögből minősíti a stúdió balfaszságát). Teljesen felesleges erőltetni a 4K-t, ha a mozgás felbontás meg beesik 480p szintre a 30 fps melletti 50% motion blur miatt. Vagy ha kikapcsolom a motion blur-t, akkor meg stop motion és kifolyik a szemem.[ Szerkesztve ]
-
X2N
őstag
válasz Teasüti #44902 üzenetére
Alig gyorsabb 4070Ti super nem ér meg +160ezret szerintem a 7800 XT-hez képest. Nem kell 4090 4K-ra a teljes játékélményhez. Itt is 70 az átlag, úgy hogy mindent feltettek maximális beállításra, abból meg lehet még visszavenni...jellemzően 1-2 grafikai opciót kell visszább venni, cyperpunknál is 1-2 grafikai opciót visszaveszel high-ra és stabil 60fps-ed van. Ha így állunk hozzá hogy raytrécing kell akkor kb semmi se jó csak a 4090 de az csak 1080p-re maximum szódával elmegy kategória...4K-t raytracingel el lehet felejteni még 15-20 évig... erre a jelenlegi kártyák is teljesen alkalmatlanok.
[ Szerkesztve ]
-
Teasüti
nagyúr
4070 Ti S - cirka 360k... Frame Gen nélkül nem megy a 60 fps tavalyi címekkel nem hogy 4K-ban, de DLSS Performance módban is alig-alig. A FG 60 fps meg elég szaggatós élmény, szóval 20-30 fps-ről interpolálni egy katasztrófa.
Persze ez AAA Ultra grafikán. Nyilván min-med grafikával potato PC is elég sok mindenre.
Erős kompromisszumokkal emeberek elvannak még az 1060 GTX-en is, illetve a 3060 12GB se véletlen népkártya. Valamint indie-hez se szokott kelleni a high end. De a megállapítás az a kurrens AAA játékokra vonatkozott. A te érved szerint 200e-ért megy a 4K60 idei AAA játékban.
Amennyire én látom 4090 kell elég sok helyre natív 4K-ban a teljes* játékélményhez.* Leginkább Ultra, de High-nál semmi se legyen lejjebb. Illetve ahol van RT, ott RT bekapcsolva.
[ Szerkesztve ]
-
X2N
őstag
válasz -=RelakS=- #44899 üzenetére
Van remény. Talán idővel lesz belőle valami. Addig marad a P2415Q.
S_x96x_S-Szerintem elég ideális. Ennyi pénzért a a konzol ezt a minőséget meg se közelíti.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Csere-Beszámítás! Asus Rog Strix RTX 4090 OC 24GB GDDR6X Videokártya!
- Fair Áron / NVIDIA GeForce GTX10xx Videókártya Felvásárlás / ORSZÁGOSAN
- ASUS GeForce RTX 4080 TUF GAMING (TUF-RTX4080-16G-GAMING) videokártya 16GB
- Csere-Beszámítás! Zotac Trinity 4090 OC 24GB GDDR6X Videokártya
- ASUS Turbo 1080 TI 11GB / BESZÁMÍTÁS