Új hozzászólás Aktív témák
-
Kansas
addikt
Van azóta újabb hír: Elvesztette a Ryzen 4000 támogatást az ASrock DeskMini 300-AS sorozata
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Kansas
addikt
Ezt honnan veszed? Az MS-nek egyébként nincs "megoldása", nekik DXR szabványuk van, amivel az Nvidia RTX és az AMD RDNA2 raytracing megoldása is kompatibilis, az AMD meg ezen felül még extra feature-t is beletesz, amit jó szokás szerint senki nem fog használni, max a konzolportok.
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Kansas
addikt
Nem igazán - az MS és az NV együtt csinálták meg a DXR szabványt, amit az AMD egy generáció csúszással szintén implementált, plusz mivel a konzolokkal is dolgoztak e téren, hozzáad egy saját kiterjesztést, ami gyaníthatólag a konzolos fejlesztések tanulságaiból merít, esetleg könnyítve a portolást.
De az AMD és az NV implementáció is 100%-ban kompatibilis a DXR-rel - aztán hogy a háttérben ezt hogy érik el, az más kérdés, az a DXR számára transzparens.Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Kansas
addikt
Igen, valószínűleg még a két RDNA generáció közti optimalizációval együtt sem fog keveset enni - nem véletlen, hogy a csúcs-Ampere-re is 300+W TDP-t és 350W körüli TBP-t jósolnak, ennek a teljesítménynek jelen állapotok szerint ez az ára.
Ami érdekesebb, hogy azonos paraméterek mellett hogy alakul a W/frame érték(fajlagos fogyasztás), nem kizárt, hogy abban jobb lesz a 5700XT-nél, de ki tudja, esélyesebb, hogy nem.
Még mielőtt megint azzal hozakodnál elő, hogy ez nem NVidia cikk, jelzem, hogy az nem kifogás, egy kártya sem a vákuum közepén van, a teljesítménye és a fogyasztása is akkor nyer értelmet, ha az elődéhez illetve a közvetlen riválisához van hasonlítva. Az meg hogy mi a közvetlen riválisa(RTX3080 v RTX 3090), az árcédulától függ, amit egyelőre a legkevésbé ismerünk az összes paraméter közülNincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Kansas
addikt
Az RX5700XT-nek papíron 225W a fogyasztása, tehát nálad hozza a papírformát - nekem nincs fogyasztásmérőm de tippem szerint itt is, hangját legalább is nem hallom a Pulse-nak...(és nem, nem fejhallgatóval tolom általában).
Hogy mennyire nehéz lehűteni a 300W-ot? Nem egyszerű, de régen is megoldották, azóta meg fejlődött a technológia - abban azért reménykedek, hogy a blower ref-hűtőt elengedik végre, azzal tuti baromi hangos lenne.
Régi, kajálós kártyák(275W< referencia TDP értékekkel, ):
NV:
GTX 295 - 289W
GTX 590 - 365W
GTX 690 - 300W
GTX Titan Z - 375WAMD:
HD 4870 X2 - 286W
HD 5970 - 294W
HD 6990 - 375W
HD 7990 - 375W
HD 8990 - 375W
R9 285X - 300W
R9 295X2 - 500W
R9 Fury X - 275W
Radeon Pro Duo - 350W
RX Vega 64 - 295W
RX Vega 64 Liquid - 345W
Radeon VII - 300WEz kb. a VGA történelem kezdete óta az összes VGA-nak álcázott fűtőtest - nem sok, általában a generációk teteje, de bővel elég, hogy legyen vele tapasztalat, szóval szerintem megoldják. Akinek ilyen kell, az általában vagy elviseli a hangját, vagy fejhallgatóval tolja, esetleg felvizezi vagy eldugja a szomszéd szobába.
Az árával kapcsolatban már nincsenek különösebb várakozásaim, ez drága lesz, alighanem skippelem is az RDNA2-t, és majd az RDNA3 kártyák közül veszek az 5700XT helyére egy kicsivel erősebb modellt - ha addigra elterjed a DRX olyan játékokban is amik engem érdekelnek és nem jók konzolon.Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Kansas
addikt
válasz #06658560 #63 üzenetére
Tíz évvel ezelőtt még nem volt ekkora divat a vízhűtés, sőt, akkoriban még hőterítő fém backplate-ek se nagyon voltak.
Arról nem is szólva, hogy amit az akkori 300W-körüli kártyák tudtak, azt most egy "belépő szintű" GTX1650 vagy pláne RX5500XT a kisujjából kirázza, negyed annyi fogyasztásból.
A mostani 300W-os kártyákra az emberek túlnyomó többségének nincs "szüksége". Persze, minél gyorsabb, annál jobb, de kompromisszumokkal(ahogy itt fentebb is többen írták), bőven meg lehet lenni nélkülük.
Ahogy eddig is (egy kivétellel, bár az inkább kuriózum), szvsz ezután is meg fog állni a csúcs VGA-k fogyasztása 300W körül, és javarészt épp azért, amiről itt diskurálunk: nagyjából ennyit lehet egy VGA kártyára való méretű hűtővel lehűteni. Tudnának ennél nagyobb fogyasztású, erősebb GPU-kat csinálni, csak azokhoz egzotikus hűtés(pl. Peltier-elem+folyadék) kéne, ami erősen megdobná az árát és/vagy korlátozná a rendszerekbe való beépíthetőségét(pl. 4-slotos videokártya).Szóval ja, 300W nem kevés, de biztos lehetsz benne, hogy kitalálnak valamit a megfelelő hangerő mellett való lehűtésére, miellőtt piacra dobják - NVidia se véletlenül kísérletezik új hűtő design-nal...
[ Szerkesztve ]
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Kansas
addikt
Nem, nem száll el semmi, ugyanazt a teljesítményt töredék fogyasztáson kapod meg, vagy ugyanazon a fogyasztáson egyre nagyobb teljesítményt(és persze ez a két ellentétes sarka a mátrixnak, közte is van sok minden). Senki sem kötelez arra hogy mindig a legbivalyabb VGA-t vedd meg az aktuális lineup-ból.
30 centis kártyát se kötelező venned, sok gyártó hoz ki "ITX"-nek csúfolt 20 cm-es vagy annál is rövidebb custom karikat is(bár a csúcsból nincs ilyen).[ Szerkesztve ]
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Kansas
addikt
Lenne hát, csak amit most a 300W-os nagy VGA--kkal megkapsz, arra egy generációval többet kéne várni... most meg pont ugyanazt kapnád, amit a csúcs alatt eggyel levő kártyák fognak tudni, kb 200-250W fogyasztással.
Kb mintha azt mondanád: nem kell nekem RTX3090(vagy 3080Ti), elég az RTX3080 mert nem akarok 250W felett fogyasztó kártyát. Hát akkor vedd azt, senki nem erőlteti rád a 300W-os monstrumokat.
Ja és igen, így hogy van a 300W-os kategória, a 250W-osakat olcsóbban kapod meg, mert nem rájuk rakódik a csúcskártyák presztizs-árrése.[ Szerkesztve ]
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Kansas
addikt
Nem mindegyik Quadro-ból van butítva, a többség az aktuális Titan-ból.
A 2080Ti nem gaming kártya? A nap vicce...
Nekem is 5700 XT-m van 1080p 72Hz mellett, és bizony pl AC: Odyssey-ben ritkán megy 50fps fölé... persze mikor vettem, még 1440p/144Hz monitorom volt, és előbb-utóbb beruházok egy 4K-sra, ha lesz belőle LFC-s értelmes áron(150e alatt), mert kell a 30-40fps közti tartomány is.Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Kansas
addikt
Azért vicces, hogy akitől én anno a 1440p/144Hz Freesync monitort(Samsung LC27HG70) vettem, az vígan hajtotta egy GTX1070-nel a Freesync-et, mert addigra már az NV is támogatta(nekem akkoriban Nitro+ RX480-am volt).
Szóval ezért kár volt neki...[ Szerkesztve ]
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
Új hozzászólás Aktív témák
- GARANCIÁLIS! MSI SUPRIM RTX 3080 Ti 12GB GDDR6X Videokártya! BeszámítOK
- eMag GARANCIA! ZOTAC Trinity RTX 3080 10GB OC GDDR6X Videokártya! BeszámítOK
- BESZÁMÍTÁS! SAPPHIRE RX 460 2GB GDDR5 videokártya garanciával hibátlan működéssel
- BESZÁMÍTÁS! Gigabyte AORUS MASTER RX 6800XT 16GB GDDR6 videokártya garanciával hibátlan működéssel
- PowerColor RX 6800 XT Red Dragon 16GB GDDR6 256bit - Számla + Garancia, Ár alatt! BeszámítOK!