-
IT café
Kérdés előtt olvasd el az összefoglalót!!
Új hozzászólás Aktív témák
-
KAMELOT
titán
válasz
Sundesz #157145 üzenetére
Ez megint egy olyan táblázat, hogy semmit nem tudsz meg belőle. Játékonként eltérőek az értékek.
Ott van mindjárt BFV amit írt. Ott eléggé sokat hoz a jó cpu min fps és az erős gpu a max fps.Lorden: Gondolom nem azért vett 3440x1440p 165hz monitort, hogy vissza kelljen venni a felbontást, meg az efekteket. Nézz be a 3080/3090 topikba, aztán ott elmagyarázzák neked miért kell erős cpu és gpu ilyen felbontásoknál.
Ha neki csak ennyi van akkor marad a 3060.V1200 - 18CORE - SUPRIMX
-
Celithrandi
addikt
válasz
Sundesz #160909 üzenetére
2022 van. FHD 60FPS Valamikor 2010-2013 között volt elvárás. Persze ha valakinek ez megér 200ezret az már az Ő dolga.
i9 14900K, MSI Z790 Tomahawk MAX, ARCTIC LFIII 420, MSI 4090, GSkill DDR5 7600Mhz, Patriot VIPER VP4300 Lite 4TB, Lian Li LANCOOL III, LG 34GN850-B, Optoma UHZ66
-
Celithrandi
addikt
válasz
Sundesz #160915 üzenetére
Szerintem 200ért lehet kapni PS5 öt és XBOX ot is. Ha valaki fhd 60fps re vágyik akkor ezerszer értékállóbb befektetés egy ilyen gép mint egy ilyen kártya. De mindenki arra szórja el a pénzét amire akarja.
i9 14900K, MSI Z790 Tomahawk MAX, ARCTIC LFIII 420, MSI 4090, GSkill DDR5 7600Mhz, Patriot VIPER VP4300 Lite 4TB, Lian Li LANCOOL III, LG 34GN850-B, Optoma UHZ66
-
Stauffenberg
nagyúr
válasz
Sundesz #161008 üzenetére
Ne vegyen, kiherélték belőle a hardware encode-ot. Vegyen helyette bármilyen Nvidiát 6GB+ VRAM mellett. Pont a hardveres decode/encode miatt van az, hogy ezekben a szoftverekben pusztán a GPU megléte vagy nem léte ég és föld teljesítmény különbség. Render időkben vagy effektek raszterizálásában lehetnek még különbségek, de a 6500 XT egy pocsék választás videózáshoz.
-
Abu85
HÁZIGAZDA
válasz
Sundesz #161012 üzenetére
Nem igazán ugyanaz. [link] - A legfőbb különbség, hogy az AMD-féle SAM hatékonysága jóval nagyobb, és kb. minden címben elég jól működik. AZ NV-féle ReBAR hivatalosan nyolc játékban támogatott, és nem is hoz annyi gyorsulást. [link]
Ez egy olyan technológia, aminek a hatékony működését nehéz megoldani úgy, hogy a processzorgyártók nem teljesítik a VGA gyártójának igényeit. És az AMD, illetve az Intel le se szarja, hogy az NV-féle ReBAR-hoz mire van szükség, igazodnak majd a saját megoldásaikhoz.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Stauffenberg
nagyúr
válasz
Sundesz #161011 üzenetére
Hardware decode van az RX 6500 XT-ben, ez mondjuk vágás közben a timeline playback sebeségen (hogy ne dobálja el a frame-eket) segíthet, de a renderelésben már nem és ennek az lesz az eredménye, hogy CPU-ból kell megoldani, ami általában képminőségileg is a legrosszabb opció és még erős CPU-val is sokkal lassabb, mint akár csak egy közepes GPU-val. Meg nem merném kijelenteni, hogy csak a decode önmagában elég a vágó szoftvernek a rendes meghajtáshoz (tapasztalatom nincs benne).
Na meg a legtöbb ilyen szoftver CUDA-ra optimalizált, ezért van akkora Nvidia dominancia a videósok között, meg mert a korábbi AMD GPU generációk nem voltak túl acélosak HW encode minőségben és sok a vakfolt abban, hogy ma 2022-ben milyenek (engem érdekelne, de az RX 6500 XT-ről nyilván HW encode hiányában ilyen teszt nem lesz).
Aztán ott van a nyers raszterizálási teljesítmény, hiába inkább "CPU heavy" az Adobe Premiere Pro, amint effektezni kezdesz, már kéri a GPU-t is, ebben mondjuk nem ismert az RX 6500 XT teljesítménye a kellő benchmarkok hiányában, de elfogadom, hogy a GTX 1060-at hozná ez is. Az After Effects pedig már alapból is díjazza a GPU-t, de ha kipróbálna egy DaVinci Resolve-ot, az meg aztán pláne (sőt 4GB VRAM mellé még nyafogni is fog, hogy ezt kevesli és csak saját felelősségre kezdj bele a munkába).
Ami pedig ennél is fontosabb, hogy bármikor, ha belép a GPU a munkába, azonnal elkezdi telepakolni a VRAM-ot és 6GB megjelölhető minimumként nem high-bitrate 4K-hoz egy laza, nem agyoneffektezett workflow mellé. Mindenre van kerülőút, lehet proxyt használni vagy playback alatt lekapcsolni az effekteket, valahogy elkészültek a 4K videók akkor is, mikor a GTX 1060/70/80 volt a VGA gyártás csúcsa.
Én inkább a videós topikban kérdezném körbe az embereket, vannak akik nálam is sokkal tapasztaltabbak ezen a téren. Nekem volt GTX 1060 6GB-om és az akkoriban széles körben elterjedt 4K UHD H.264 200 Mbps mellé kielégítő volt úgy, hogy nálam az effektezés csak némi színezést/fényelést jelent. De egy After Effects ezt is megtudja fektetni bőven ha ennél több bling-bling kell.
A konkrét kodek/bitráta/munkamódszer (pl: proxy használat) ismeretében lehetne jobban ajánlani a videós topikban.
-
PuMbA
titán
válasz
Sundesz #161513 üzenetére
6GB mostanában kezd szűkös lenni, nem véletlen jött ki a 12GB-os verzió, valamint a 3060 is ennyivel lett szerelve, plusz a 3050 fellépett 8GB-ra a 6GB-os 1660-ról, tehát a 8GB lett az alsó kategória. Cyberpunk 2077 ray tracinggel 1080p-ben már 6,5GB-ot használ a DigitalFoundry mérése alapján.
[ Szerkesztve ]
-
PuMbA
titán
válasz
Sundesz #161519 üzenetére
Egyébként most nézem, hogy a 3080-ból is adtak ki 12GB-os variánst, az RTX3050 mellett fjelent meg csendben, szóval érzi az NVIDIA, hogy szorul a hurok
Az AMD előre ment a probléma megoldásában, mert alapból 12 / 16GB-tal adták ki a kártyáikat. Már csak a 3060Ti és a 3070 maradt, ami nem lett még frissítve a 3000-res szériából, szóval nem csoda, hogy ezeken van a legkevesebb VRAM. A 4000-res széria úgy is rendbe teszi a dolgot, ott már nem lesz 6 vagy 8GB, csak több.
[ Szerkesztve ]
-
#48425472
törölt tag
válasz
Sundesz #161821 üzenetére
Főleg játékra van használva a gép, meg sorozatnézés, csak nem akarnék úgy járni, hogy veszek egy videókártyát és gyenge legyen. Játékban főleg FIFA 20, Far Cry sorozat, Assassins Creed Valhalla, Days Gone lenne tervben olyan High beállítás 100 FPS vagy több 1080p. A monitor egy ősrégi LCD monitor, csak nem tudom lenne-e probléma, ha használnék egy 6700 XT-t a jelenlegi monitoron persze és később vennék egy 1080p 144Hz monitort, ezért kérdeztem. Köszönöm srácok a megnyugtató választ, kicsit megijedtem a tápot is cserélnem kell a 6700 XT miatt. A másik dolog pedig, addig akartam cserélni 5600x-re, amíg nem lesz kifutó termék meg persze ki akartam maxolni az alaplapot. De nagyon megvagyok vele elégedve, ég és föld a különbség az 1600x-hez képest.
-
válasz
Sundesz #177348 üzenetére
Nem, nem ide való. Semmi relevancia nincs ajánlás szempontjából. Ugyanaz a kártya másik gépben lehet abszolút nem fog coil whine-tól szenvedni, az ami nálad meg nem coil whine-os, másnál meg igen. Ilyen alapon egy kártyát sem szabad ajánlani az újak közül (talán a gtx 9xx vagy rx4xx óta), mert vagy fog vagy nem.
És ezt a témát zárjuk is le, az adott kártya topikjában vagy más vga kibeszélő topikban lehet folytatni, akár privátban is megbeszélhetitek, de itt csak felesleges off generálás ez a téma.
[ Szerkesztve ]
-
kolopele
nagyúr
válasz
Sundesz #178366 üzenetére
Jogos, csak a tapasztalatok sok esetben mást mondanak. Nekem pl. brutál jó hűtésű házam van, és a legtöbbször a tesztekben látott hőmérsékletek valahogy mégsem egyeznek azzal amiket ott látni, nem beszélve arról, hogy két teszt sem egyforma, az egyikben 70 fokos a kártya, a másikban meg 90, a ventik fordulata is más, a memória hőmérsékletét meg a legtöbbször nem is írják csak a GPU - ét meg a Hot Spot - ét, ahogy nagyon sok felhasználó van aki szerintem még az életében nem használt monitorozó programot (még azt sem tudják hogy van olyan), így az sem derül ki ha állandó jelleggel 100 fokos memóriákkal használja. Nyilván a gari időt így is kibírják, úgy vannak megcsinálva. Amúgy meg a GDDR6X memóriák mindig is melegedősek voltak, csak egy jobb hűtésű 3 ventis kártya kicsivel jobban képes hűteni, bár a TUF is képes volt 102 fokig felmenni a 3080 Ti - nél amikor azt használtam, kellett neki némi alulfesz.
[ Szerkesztve ]
-
kolopele
nagyúr
válasz
Sundesz #178371 üzenetére
Mondjuk igaz, a TUF is egy hulladék volt a 3xxx széria előtt, volt teszt az 1660 Ti ről, 90 fokon ment porszívózajjal, most meg már közel Strix meg Gaming X szint. Látom neked volt Dual - od a 4070 - ből, akkor te is tapasztalat alapján tudod megmondani milyen, bár ugyanazon kártyák esetében is sokszor van szórás, és nem csak a hőfokok terén. A linkelt teszt alapján végtére mondjuk a Gainward is jó akkor, max. az a majd 2000 rpm lenne szerintem sokaknak bosszantó. Akkor ezentúl a DUAL - ra nem mondom egy-két vélemény alapján hogy nem ajánlott, maradjunk ennyiben, elvégre volt akinél a Red Devil pl. 100 fokon járt, nálam meg ment 70 - en. Ezért írtam, hogy két ugyanazon kártya sem biztos hogy egyforma, a Gigáknál sem zörög az összesnél a venti, sok múlik az összeszerelésen. Na de off vége.
[ Szerkesztve ]
-
kolopele
nagyúr
válasz
Sundesz #178959 üzenetére
Nem véletlen hozták ki több oldalon is best buy - ként az RX 6700XT - t FHD/1440p esetén, ár/érték arányban az egyik legjobb kártyának számít, persze ha nem kell ez a ma még semmit érő RT. Kimondott FHD használatra ugyanezt a címet kapta az RX 6600. A 4060 ugyan erősebb valamivel a 6600 - nál, viszont árban majdnem a duplája.
-
BigBear
senior tag
válasz
Sundesz #178959 üzenetére
Ez egy kicsit olyan egyeseknél, mint a rendszermemória mennyisége. Már 4-5-6-10 éve is kongatták egyesek a vészharangot, hogy 16+, majd 32+ G alatt nincs élet. Ehhez képest a nagy többség most tart 16-nál és láss csodát, működik. Persze, minél több, jobb (bár nem minden a menyniség, ha a hw gyenge).
[ Szerkesztve ]
-
RetepNyaraB
veterán
válasz
Sundesz #178959 üzenetére
Nem a mindenkori minimumra lövök 🤷
Amikor igen, ott olyan a kifejezett igény (low budget).
Fhd-ban valóban elég a 8GB, többnyire magas beállításokon is (rt nélkül). Fogjuk rá. Még.
2024-ben szerintem ilyenre már nem érdemes beruházni, főleg nem új árban - de ezen nem veszünk össze.
Ahol lehetőség van grafika emelő modokra, a sok vram remek opció. 8GB mellett a fhd maxolása sem igazán lehetséges. Eklatáns példa a Cyberpunk.[ Szerkesztve ]
"I don't know half of you half as well as I should like; and I like less than half of you half as well as you deserve."
-
p@gabi
tag
válasz
Sundesz #179460 üzenetére
Köszi mindegyikőtöknek
Remélem,hogy a spectral white is ugyanaz mint a sima hellhound,csak színben van különbség,a hűtés ugyanaz
Köszi a linkeket,én is kerestem ilyen összehasonlító teszteket különböző márkák között,de ezek felett átsiklottam
Remélem a garanciális háttere is rendben van a power colornak (bár ne legyen rá szükség),éppen most "szívok" egy rog strix gariztatásával,remélem kedvező döntés születik majd részükről,ha esetleg nem javítható[ Szerkesztve ]
Új hozzászólás Aktív témák
Techpowerup VGA tesztek /VGA teljesítmény összehasonlítására alkalmas/
Az AMD grafikus feldolgozó egységek listája
Az Nvidia grafikus feldolgozó egységek listája
Az Intel/Intel Arc grafikus feldolgozó egységek listája
5+1 kritikus dolog, amire oda kell figyelned használt videókártya vásárlásánál
Videókártya tesztelések a King's Tech-től, amely nemcsak szórakoztató, de egyben tanulságos is
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen