Keresés

Új hozzászólás Aktív témák

  • Kansas

    addikt

    válasz sb #12 üzenetére

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz arn #32 üzenetére

    Ezt honnan veszed? Az MS-nek egyébként nincs "megoldása", nekik DXR szabványuk van, amivel az Nvidia RTX és az AMD RDNA2 raytracing megoldása is kompatibilis, az AMD meg ezen felül még extra feature-t is beletesz, amit jó szokás szerint senki nem fog használni, max a konzolportok.

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz arn #41 üzenetére

    Nem igazán - az MS és az NV együtt csinálták meg a DXR szabványt, amit az AMD egy generáció csúszással szintén implementált, plusz mivel a konzolokkal is dolgoztak e téren, hozzáad egy saját kiterjesztést, ami gyaníthatólag a konzolos fejlesztések tanulságaiból merít, esetleg könnyítve a portolást.
    De az AMD és az NV implementáció is 100%-ban kompatibilis a DXR-rel - aztán hogy a háttérben ezt hogy érik el, az más kérdés, az a DXR számára transzparens.

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz Kupszi #47 üzenetére

    Igen, valószínűleg még a két RDNA generáció közti optimalizációval együtt sem fog keveset enni - nem véletlen, hogy a csúcs-Ampere-re is 300+W TDP-t és 350W körüli TBP-t jósolnak, ennek a teljesítménynek jelen állapotok szerint ez az ára.
    Ami érdekesebb, hogy azonos paraméterek mellett hogy alakul a W/frame érték(fajlagos fogyasztás), nem kizárt, hogy abban jobb lesz a 5700XT-nél, de ki tudja, esélyesebb, hogy nem.
    Még mielőtt megint azzal hozakodnál elő, hogy ez nem NVidia cikk, jelzem, hogy az nem kifogás, egy kártya sem a vákuum közepén van, a teljesítménye és a fogyasztása is akkor nyer értelmet, ha az elődéhez illetve a közvetlen riválisához van hasonlítva. Az meg hogy mi a közvetlen riválisa(RTX3080 v RTX 3090), az árcédulától függ, amit egyelőre a legkevésbé ismerünk az összes paraméter közül

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz Kupszi #56 üzenetére

    Az RX5700XT-nek papíron 225W a fogyasztása, tehát nálad hozza a papírformát - nekem nincs fogyasztásmérőm de tippem szerint itt is, hangját legalább is nem hallom a Pulse-nak...(és nem, nem fejhallgatóval tolom általában).
    Hogy mennyire nehéz lehűteni a 300W-ot? Nem egyszerű, de régen is megoldották, azóta meg fejlődött a technológia - abban azért reménykedek, hogy a blower ref-hűtőt elengedik végre, azzal tuti baromi hangos lenne.
    Régi, kajálós kártyák(275W< referencia TDP értékekkel, ):
    NV:
    GTX 295 - 289W
    GTX 590 - 365W
    GTX 690 - 300W
    GTX Titan Z - 375W

    AMD:
    HD 4870 X2 - 286W
    HD 5970 - 294W
    HD 6990 - 375W
    HD 7990 - 375W
    HD 8990 - 375W
    R9 285X - 300W
    R9 295X2 - 500W
    R9 Fury X - 275W
    Radeon Pro Duo - 350W
    RX Vega 64 - 295W
    RX Vega 64 Liquid - 345W
    Radeon VII - 300W

    Ez kb. a VGA történelem kezdete óta az összes VGA-nak álcázott fűtőtest - nem sok, általában a generációk teteje, de bővel elég, hogy legyen vele tapasztalat, szóval szerintem megoldják. Akinek ilyen kell, az általában vagy elviseli a hangját, vagy fejhallgatóval tolja, esetleg felvizezi vagy eldugja a szomszéd szobába.
    Az árával kapcsolatban már nincsenek különösebb várakozásaim, ez drága lesz, alighanem skippelem is az RDNA2-t, és majd az RDNA3 kártyák közül veszek az 5700XT helyére egy kicsivel erősebb modellt - ha addigra elterjed a DRX olyan játékokban is amik engem érdekelnek és nem jók konzolon.

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz #06658560 #63 üzenetére

    Tíz évvel ezelőtt még nem volt ekkora divat a vízhűtés, sőt, akkoriban még hőterítő fém backplate-ek se nagyon voltak.
    Arról nem is szólva, hogy amit az akkori 300W-körüli kártyák tudtak, azt most egy "belépő szintű" GTX1650 vagy pláne RX5500XT a kisujjából kirázza, negyed annyi fogyasztásból.
    A mostani 300W-os kártyákra az emberek túlnyomó többségének nincs "szüksége". Persze, minél gyorsabb, annál jobb, de kompromisszumokkal(ahogy itt fentebb is többen írták), bőven meg lehet lenni nélkülük.
    Ahogy eddig is (egy kivétellel, bár az inkább kuriózum), szvsz ezután is meg fog állni a csúcs VGA-k fogyasztása 300W körül, és javarészt épp azért, amiről itt diskurálunk: nagyjából ennyit lehet egy VGA kártyára való méretű hűtővel lehűteni. Tudnának ennél nagyobb fogyasztású, erősebb GPU-kat csinálni, csak azokhoz egzotikus hűtés(pl. Peltier-elem+folyadék) kéne, ami erősen megdobná az árát és/vagy korlátozná a rendszerekbe való beépíthetőségét(pl. 4-slotos videokártya).

    Szóval ja, 300W nem kevés, de biztos lehetsz benne, hogy kitalálnak valamit a megfelelő hangerő mellett való lehűtésére, miellőtt piacra dobják - NVidia se véletlenül kísérletezik új hűtő design-nal...

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz Kupszi #68 üzenetére

    Nem, nem száll el semmi, ugyanazt a teljesítményt töredék fogyasztáson kapod meg, vagy ugyanazon a fogyasztáson egyre nagyobb teljesítményt(és persze ez a két ellentétes sarka a mátrixnak, közte is van sok minden). Senki sem kötelez arra hogy mindig a legbivalyabb VGA-t vedd meg az aktuális lineup-ból.
    30 centis kártyát se kötelező venned, sok gyártó hoz ki "ITX"-nek csúfolt 20 cm-es vagy annál is rövidebb custom karikat is(bár a csúcsból nincs ilyen).

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz tasiadam #76 üzenetére

    Lenne hát, csak amit most a 300W-os nagy VGA--kkal megkapsz, arra egy generációval többet kéne várni... most meg pont ugyanazt kapnád, amit a csúcs alatt eggyel levő kártyák fognak tudni, kb 200-250W fogyasztással.
    Kb mintha azt mondanád: nem kell nekem RTX3090(vagy 3080Ti), elég az RTX3080 mert nem akarok 250W felett fogyasztó kártyát. Hát akkor vedd azt, senki nem erőlteti rád a 300W-os monstrumokat.
    Ja és igen, így hogy van a 300W-os kategória, a 250W-osakat olcsóbban kapod meg, mert nem rájuk rakódik a csúcskártyák presztizs-árrése.

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz tasiadam #78 üzenetére

    Nem mindegyik Quadro-ból van butítva, a többség az aktuális Titan-ból.
    A 2080Ti nem gaming kártya? A nap vicce... :C
    Nekem is 5700 XT-m van 1080p 72Hz mellett, és bizony pl AC: Odyssey-ben ritkán megy 50fps fölé... persze mikor vettem, még 1440p/144Hz monitorom volt, és előbb-utóbb beruházok egy 4K-sra, ha lesz belőle LFC-s értelmes áron(150e alatt), mert kell a 30-40fps közti tartomány is.

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz tasiadam #81 üzenetére

    Azért vicces, hogy akitől én anno a 1440p/144Hz Freesync monitort(Samsung LC27HG70) vettem, az vígan hajtotta egy GTX1070-nel a Freesync-et, mert addigra már az NV is támogatta(nekem akkoriban Nitro+ RX480-am volt).
    Szóval ezért kár volt neki...

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

Új hozzászólás Aktív témák