Keresés

Új hozzászólás Aktív témák

  • huskydog17

    addikt

    válasz b. #47805 üzenetére

    Több sajtónál is megjelent a deep dive a Blackwell-hez, úgy tűnik ezek a technikai részletek NDA-s infók voltak, ami ma 15 órakor járt le.

    TPU:
    NVIDIA GeForce RTX 50 Technical Deep Dive

    ComputerBase

    Hardwareluxx

    Rengeteg új diát adtak most a zöldek, rengeteg új infó van a bejelentéshez képest, érdemes átfutni a diákat, nagyon sok hasznos infót rejtenek.

    Úgy látom a Blackwell szériának egyik nagy erőssége a neural shader lesz, ami elég masszívan megdobhatja a látványt játékokban. A Tensor és RT magok tempóját megduplázták, a kijelző és multimédia motorokat frissítették, most már biztos, hogy a Blackwell a legújabb és leggyorsabb HDMI és DP csatlakozókkal fog rendelkezni (DP esetén UHBR20). Az RT magok memóriaigénye 25%-al csökkent.

    Az FE hűtés design-hoz tartozó diákat különösen érdekesnek tartom, ott jól látni, hogy az új design (Double-Flow-Through) mennyivel hatékonyabb, mint bármely más hűtés, itt jól látszik, hogy miért előnyös a kis PCB. Itt még mindig döbbenetes számomra, hogy az 5090-nél, 512 bites busz és 12 db VRAM modul és brutál izmos VRM mellett ilyen pici PCB-t sikerült alkotni. Az FE hűtés 30-35 dB környékén várható a diák alapján.

    Szintén a friss diák alapján nagyjából így néz ki a nyers (shader) számítási teljesítmény játékokban, azonos körülmények között:

    RTX 5090 vs. 4090: kb. 33%
    RTX 5080 vs. 4080: kb. 15%
    RTX 5070 Ti vs. 4070Ti: kb. 20%
    RTX 5070 vs 4070: kb. 20%

    A CB táblázatában tökéletesen látható, amit már korábban is mondtam: a csúcs kártya 5090-es kivételével mindegyik kártya olcsóbb, mint az Ada indulásakor, az 5080-as 200 dollárral, a két 70-es kártya 50-50 dollárral, tehát nincs drágulás a csúcsterméket leszámítva. A csúcstermék esetén pont az lett volna a csoda, ha azonos áron jön, hiszen az 512 bit és a 32 GB GDDR7 miatt eleve sokkal drágább gyártani, mint egy 4090-et, ezen felül az FE hűtés sem olcsó mulatság (der8auer szerint).

    Olyan sok az új infó, hogy még nem futottam át teljesen a cikkeket, csak felületesen, de majd pár órát rászánok később.

    [ Szerkesztve ]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz huskydog17 #47732 üzenetére

    Érkezett frissítés:
    Az RTX 5080-as MSRP kártyák tesztjei 01.29-én jelennek meg.

    Ezzel az 5080-ért sorban állók is megkapják a teszteket időben. :D

    A nem MSRP (OC vagy prémium, kinek hogy tetszik) custom design-ok tesztjei továbbra is 01.30-ra vannak belőve.

    [ Szerkesztve ]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz Busterftw #47733 üzenetére

    Ez csak annak gond, aki 01.30-án hajnalban sorba akar majd állni, hogy kapjon egy 5080-at a kezdeti készletből, annak valóban nem lesz ideje elolvasni előtte a teszteket. :)
    Mindenki másnak no problem. Mondjuk nem hiszem hogy az 5080-ért sokan sorba fognak állni első napon, de az USA-ban sose lehet tudni. :DDD

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    NVIDIA GeForce RTX 5090 reviews go live January 24, RTX 5080 on January 30

    Állítólag ezek hivatalos adatok (NV megerősítette).

    Az 5080-asokhoz később érkeztek meg a BIOS-ok az AIB partnerekhez, ezért később tudták kiküldeni a kártyákat, emiatt van 1 hét eltolódás. Ettől függetlenül az 5090 és 5080 ugyanúgy Január 30-án rajtol (piaci start).
    01.24-én látni fogjuk mit tud valójában az 5090. Még 11 nap.

    [ Szerkesztve ]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz b. #47727 üzenetére

    ASUS A7N8X-X tulajdonos/felhasználó voltam 7 éven át (nForce 2 Ultra 400 chipset). A legjobb chipset volt akkoriban.
    2003-tól 2010-ig használtam azt a gépet, a lapban egy AthlonXP 2400+ volt T-Bred B maggal.

    [ Szerkesztve ]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    ZOTAC introduces 12VHPWR “Safety Light” for GeForce RTX 5090/5080 series

    "ZOTAC GAMING has given the power connector more attention with additional enhancements: a Safety Light that prevents the GPU from powering on if the cable is not fully seated, and 5u gold-plated connection pins to be more corrosion-resistant and provide better electrical conductivity."

    Na ez egy hasznos újítás, a többi AIB partner is átvehetné ezt.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz fatal` #47431 üzenetére

    Oh jaj.

    A YT-nak több milliárd aktív felhasználója van, nyilván nem mindenki streamel, nem tudom ezt miből szűrted le. Live streamtől függetlenül egy több milliárd felhasználós platform nem lehet rétegplatform, konkrétan a világ legnagyobb videómegosztó portálját extrém módon és igencsak megmosolyogtatóan lealacsonyítottad, mintha csak egy garázs projekt lenne. :DDD
    Ha ennyire ragaszkodsz kizárólag a live streamhez, akkor se réteg platform, konkrétan több tízezer csatorna streamel egyszerre YT-on és több millió nézőjük van. Ez neked réteg igény? Szerintem attól nagyon messze vagyunk. Konkrétan a világ második legnépszerűbb streaming platformja. Szerintem gondold át.

    "A feltöltés nem on the fly encoding, a videók nézése meg még csak nem is encoding."
    Nyilván. Miből gondolod, hogy én nem ezt nem tudom?

    "Hiába töltesz fel sokszoros bitrátával, azt lekonvertálja."
    Nem hiába. Magas bitrátás, azaz nagyon jó minőségű forrásból a YT is sokkal jobb végeredményt fog adni, mint egy középszerű vagy szar forrásból.

    #47419 M@trixfan: Igen.

    [ Szerkesztve ]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz fatal` #47415 üzenetére

    A YouTube rétegigény? Szerintem nagyon nem, több milliárd felhasználóval igencsak fura rétegigénynek mondani. YT és VR két szélső példa: YT a legnépszerűbb streaming/videós platform, míg a VR nagyon szűk réteget jelent.

    "A YouTubeon van HEVC, de minek, borzasztó hulladékot kódol belőle."

    A mondat második felét cáfolnám. Én minden videómat HEVC-ben töltöm fel már évek óta és igen jó képminőséget kapok. A trükk annyi YT-on, hogy 1080p-nél nagyobb felbontásban kell feltölteni a videót és akkor nem a fos AVC-t, hanem VP9 vagy AV1-et kapsz playback-nél. Ha a feltöltött videó felbontása nem nagyobb, mint 1080p, akkor a videót jó eséllyel csak AVC encode-ot kap YT oldalon és akkor valóban egy fos lesz a képminőség, de VP9-el vagy AV1-el fényévekkel szebb a kép. Igaz, én nem 5-6 Mbit/s bitrátával töltök fel, hanem annak sokszorosával (sokszor extrém nagy bitrátával), ezért is jó a képminőség.
    Mivel minden video streaming platform a lehetőleg legalacsonyabban próbálja tartani a bitrátát a szerverfarm kímélése miatt, így rendkívül kritikus, hogy milyen kodekkel történik szerver oldalon a feldolgozás. A VP9 és AV1 fényévekkel szebb, mint az AVC, mert viszonylag alacsony a bitráta és az új kodekek pont ott brillíroznak.

    Én pont annak örülnék, ha a YT végleg kidobná az AVC-t és a legalja minőség is VP9 lenne, mert az sokkal kevésbé roncsolja szét a videót, mint az AVC.

    Szóval nem a HEVC-ből kódol hulladékot a YT, hanem az olyan videóból ami kizárólag AVC encode-ot kap, ahogy mondtam amelyek max 1080p felbontásúak. A HEVC pont, hogy hatékonyabb, mint az AVC.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz gejala #47407 üzenetére

    "AV1 kompatibilitása gyakorlatilag nulla, csak akkor van értelme használni, ha garantáltan nem akarod szerkeszteni."

    Ez azért extrém mértékű túlzás. Mind a hardveres mind a szoftveres támogatás már adott és elég jól elterjedt, minden nagyobb, ismertebb videószerkesztő támogatja és mindhárom GPU gyártó is generációk óta, HEVC-et pedig minden is támogatja kb.

    #47410 fatal`: Nem is a VR-re gondoltam elsősorban, az egy rendkívül kicsi, szűk rétegigény, hanem inkább a streaming szolgáltatókra (pl.: YT), ahol nagyon kicsi bitrátát használnak, ott az AVC felér egy büntetéssel.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz huskydog17 #47250 üzenetére

    Kiegészítés:

    Meglett a válasz a multimédia motor frissítésre. Szóval aki érdekel, hogy pontosan milyen fejlesztéseket kapott az NVDEC és NVENC:

    "Decoding 4:2:2 video can be challenging due to the increased file sizes. GeForce RTX 50 Series GPUs include 4:2:2 hardware support that can decode up to eight times the 4K 60 frames per second (fps) video sources per decoder, enabling smooth multi-camera video editing.
    The GeForce RTX 5090 GPU is equipped with three encoders and two decoders, the GeForce RTX 5080 GPU includes two encoders and two decoders, the 5070 Ti GPUs has two encoders with a single decoder, and the GeForce RTX 5070 GPU includes a single encoder and decoder. These multi-encoder and decoder setups, paired with faster GPUs, enable the GeForce RTX 5090 to export video 60% faster than the GeForce RTX 4090 and at 4x speed compared with the GeForce RTX 3090.
    GeForce RTX 50 Series GPUs also feature the ninth-generation NVIDIA video encoder, NVENC, that offers a 5% improvement in video quality on HEVC and AV1 encoding (BD-BR), as well as a new AV1 Ultra Quality mode that achieves 5% more compression at the same quality. They also include the sixth-generation NVIDIA decoder, with 2x the decode speed for H.264 video.
    NVIDIA is collaborating with Adobe Premiere Pro, Blackmagic Design’s DaVinci Resolve, Capcut and Wondershare Filmora to integrate these technologies, starting in February.
    3D video is starting to catch on thanks to the growth of VR, AR and mixed reality headsets. The new RTX 50 Series GPUs also come with support for MV-HEVC codecs to unlock such formats in the near future."

    Tehát a dekóder (NVDEC) 4:2:2 színformátum támogatást kapott és egy darab dekóder blokk 8 darab 4K60 fps streamet képes dekódolni. Az 5090-ben és 5080-ban kettő ilyen dekóder van, azaz 16 db 4K60fps streamet képesek egyszerre dekódolni (a két 70-es kártyában 1 darab blokk van). Ezen felül MV-HEVC támogatás jön 3D videókhoz (VR&AR). Továbbá az ősöreg AVC (H.264) kodekkel történő dekódolás tempóját megduplázták.

    NVENC motor esetén javult a képminőség HEVC és AV1 kodek esetén, illetve AV1 Ultra Quality-nél a tömörítés hatékonysága. Ezen felül itt is érvényes a MV-HEVC támogatás.
    Az 5090-ben három NVENC blokk van, az 5080-ban és 5070Ti-ban kettő, míg a sima 5070-ben egy darab.

    Hát, a tippem nem jött be (VVC), viszont engem nagyon meglepett, hogy még mindig ölnek erőforrást a borzalmasan elavult AVC kodekbe. Reméltem, hogy mihamarabb kihal, de ezzel csak késleltetik a kihalását. :)

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz b. #47318 üzenetére

    Ez megmosolyogtató, ugyanakkor mégis megnéznék egy alapos tesztet egy ilyenről, hogy az 5 venti mit produkál.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz Quadgame94 #47251 üzenetére

    Nem sikerült értelmezned a hsz-t, nem baj, próbáld meg még egyszer hátha másodjára összejön, másnak sikerült elsőre is. :)

    #47254 hahakocka: Igen, olvastam, itt leírtam róla a véleményem, feltéve, ha erre az interjúra gondolsz.

    "5090 2000 dolcsi valós majd 2400 kb. 4090 1600 dollár msrp melyik dràgàbb?"

    Mit akarsz ezzel mondani?

    "20-25% gyenge RT S gameben amivel sokan következtettek a raszterre nem is volt raszterről egy dia se. Vajon mièrt? Lehet ezèrt csökkentettek èpp. Valós erő lehet elmarad?"

    Január 30-án kapsz részletes teszteket. Addig szerintem kapcsold ki a jósgömbödet, mert már számtalanszor láttuk, hogy az nagyon rosszul működik.

    "FSR 4 driverrel lesz Rdna 2-3 ral , erről is beszèltek az interjún. Eddig is FSR T nem egy genen hasznâltäk"

    Pontosan hol, ki és mikor mondott ilyet? Belinkeled légyszi? Én a fentebb linkelt interjúban ilyen nem látok. Igen, az FSR-t eddig minden arch-on lehetett használni, az FSR 4-et már nem, az RDNA4-exkluzív feature.

    #47312 b.: Na ez gyors volt a Remedy-től, nem vártak/várnak vele. Minden Path Traced játékba kéne a Mega Geometry. Már day 1 jött tehát egy bejelentés, hogy az egyik új NV feature beépítésre kerül és ezzel minden RTX felhasználó jól jár. Csúnya NV, adtak egy gyorsabb eljárást, há hogy képzelik! ;]

    [ Szerkesztve ]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    Sikerült megnéznem és elolvasnom minden információt az NV bejelentésekről, itt leírnám a véleményemet ezzel kapcsolatban (vigyázat, hosszú hsz jön, szóltam!).

    Rögtön a keynote elején Jensen a lényegre tért és megadta a világnak, amire vágyott, az új VGA szériát. Ez az AMD-nek nem sikerült. A zöldek rögtön árat, megjelenési időpontot (január 30.) és az összes technikai specifikációt azonnal elérhetővé tették. A keynote-ban csak a leglényegesebb dolgokat emelte ki Jensen, azaz az új SKU-kat, azok árait és a DLSS 4-et, mint új exkluzív feature, több nem is kell, a nép erre volt kíváncsi. Elég volt 5-10 perc rá (mégis be lehet jelenteni egy új VGA szériát 5-10 percen belül, hát nem érdekes kedves AMD?). A részleteket pedig már lehetett is olvasni a hivatalos oldalon és különböző IT outletek oldalain. Tonna mennyiségű új információt tettek közzé, szinte mindent az új generációról, az AMD-nek sikerült 4 darab "nesze semmi fogd meg jól" diát odaadni a sajtónak, amiből csak annyit lehet leszűrni, hogy most már a nevezetéktant is másolják a zöldektől. Na de vissza a Blackwell-hez. Most már teljesen érthető, hogy Jack miért remegett az előadás közben úgy, mint egy kocsonya. Valszeg ő már akkor tudta, hogy ezt a meccset elveszítették, itt Duck663 kolléga elméletét tartom valószínűnek.

    Voltak okos megmondóemberek, akik a keynote előtt megmondták, hogy xy termék nem lesz bejelentve és hogy az árazás ilyen meg olyan lesz, na most ezekre az embereke a keynote nagyon látványosan rácáfolt, az árazáshoz gbors kolléga megjegyzése tükrözi a legjobban az én véleményemet is:

    "Megkapó az a természetesség, amivel az eddig az arázásra panaszkodók azonnal áttértek a teljesítményre való panaszkodásra - amiről ugye jelenleg elég kevés információ áll rendelkezésre :D"

    Most, hogy az árazás pletykák nem jöttek be, így ezek a megmondó emberek már most elkezdték temetni az 50-e szériát, miközben semmit nem tudunk még a valós teljesítményről, de ők nyilván már pontosan tudják. Gondolom úgy, ahogy tudták az árazást is előre (höhö).
    Az árazás az 5090-et leszámítva nem csak nem emelkedett, hanem még csökkent is az Ada indulásához képest.

    Mivel itt node váltás nem történt (továbbra is 4nm), így nem volt várható jelentős ugrás, én sem vártam nagy csodát, inkább abban reménykedtem, hogy a DLSS 4 hoz majd valami érdekességet. Így is lett. Az szintén teljesen nyilvánvaló és magától értető volt, hogy a DLSS 4 hoz majd egy exkluzív feature-t, ami csak az új szérián fog működni, hiszen az új szériákat csak exkluzív feature-rel lehet eladni (vagy inkább jobban lehet azzal eladni?).
    A multiframe framegen azok számomra nagyon jó és hasznos feature lehet, akik magas sebességen szeretnek játszani. Miután megtapasztaltam, hogy milyen 60 helyett 180 Hz-en játszani, maximálisan megértem azokat a játékososokat és bizony van létjogosultsága a technológiának. Én ezt ugyan nem fogom használni, sőt nem is tudom, de engem ez a legkisebb mértékben sem zavar, hiszen a DLSS 4 olyan további újításokat hozott, amelyek számomra rendkívül fontosak és ebben reménykedtem. Konkrétan a SR, a RR és DLAA masszív fejlődésen esnek át, egy új architektúrát kapnak, aminek hatására jelentősen javul a képminőség. Ez annak fényében ironikus, hogy eddig a DLSS/DLAA adta a legjobb képminősévet játékokban, ezt a lécet most tovább emelik, ráadásul minden RTX kártya megkapja ezen fejlesztéseket. A Reflex 2 csak hab a tortán, arra abszolút nem számítottam, de hogy még azt is minden RTX kártya megkapja, hát mondom ok jöhet, megnézzük majd! Bár nem vagyok esportoló, de ha már megkapom én is a technológiát, egyszer majd talán kipróbálom.

    Na most a másik oldalon emlegetik az FSR 4-et. Röviden: az FSR 4 kizárólag a be nem jelentett RDNA4-en fog működni. A minősége állítólag sokkal jobb lesz, mint a korábbi verzióké, azt mondjuk nem olyan nehéz elérni. Így talán már meg tudja majd közelíteni a DLSS 2.x szintjét, talán, ha a csillagok állása is úgy akarja. Eddig 1 darab játékhoz jelentették be a támogatást (Black Ops 6) és ahhoz is majd valamikor az év folyamán érkezik a patch (Activison: "later this year").
    DLSS 4-el mi a helyzet: day 1, azaz az új generáció megjelenése napján 75 játék fogja támogatni, ez a szám nyilván gyorsan fog nőni majd. Azt hiszem ez elmond mindent a kettő közti különbségről, de van még egy dolog.
    A DLSS 4 esetén az NVIDIA architektúrát váltott, 6 évig úgynevezett CNN-t használt a DLSS, ezt most nyugdíjba küldték a zöldek, mert egyszerűen elérték a határait, szükség volt egy újabb technológiára, ami tovább emeli a minőséget. Ez lett a transformer (itt az NV blog leírás róla), ami jelentősen javítja a képstabilitást, csökkenti a ghostingot és növeli a kép részletességét. Ezt az új transformer modellt az NV szintén sok évig szeretné használni. Ezt az új modellt tehát minden RTX kártya támogatni fogja. Engem már itt meggyőztek a zöldek, de aztán tovább mentek: az új NVIDIA APP-ban majd force-olni lehet a DLAA-t olyan játékokban, ahol csak SR volt, na ez egy nagyon welcomed feature.
    A DLSS nyújtotta újítások számomra már abszolút meggyőzőek és már csak emiatt örülök az RTX 50-es szériának, hiszen a DLSS 4 fejlesztéséből minden RTX kártya profitál. Azt hiszem ennél felhasználóbarátabban nem nagyon lehetne. Hogy is volt az FSR 4? Oh igen, RDNA 4 only. ;] Most hol vannak azok a hangok, amelyek mindig az FSR-t reklámozták, hogy az a régebbi szériákkal is, működik? Most akkor mi van? Mintha megfordult volna a világ. Ja igen még egy dolog itt: a PS5 Pro PSSR-je és az RDNA 4 FSR4-je most kezdik el majd használni a CNN modellt, amit az NV most nyugdíjazott. :DDD

    Még egy dolog van, amire nem számítottam a Blackwell-nél, az pedig az, hogy mindkét multimédia motort (NVDEC, és NVENC) frissítették. A dekódert még megértem, mert az 2 generáció óta változatlan, hiszen az Ada az Amperre dekóderét kapta meg, viszont az számomra váratlan, hogy az enkóder motor (NVENC) is új verziót kapott, hiszen az Ada-ban már az meg lett újítva, akkor kapott AV1 enkódolást. Itt jön a képbe, amit viszont hiányolok. Az ugyan egyértelműen fel van tüntetve, hogy mindkettő új, de sajnos még nem tudni, hogy pontosan mit újítottak rajta. Jelen hsz írásának pillanatában az NVENC és NVDEC mátrix még nincs frissítve, így egyelőre semmit nem tudok arról, hogy milyen újításokat kapott ez a két egység. Egy tippem van: a dekóder szerintem VVC (H.266) támogatást kaphatott, hiszen a Lunar Lake ezt már meglépte tavaly, aztán az Intel a Battlemage-ből kiszedte. Enkóder fronton tippem sincs, viszont az 5090 már három darab NVENC motort kapott, meg se tudom tippelni milyen brutális enkóder sebességre képes.

    Ha már 5090: számomra az is döbbenetes, hogy nagyon sok év után újra 512 bit széles memóriabusz kaptunk konzumer vonalon. Mikor láttunk ilyet utoljára? (GeForce GTX 285?) Ahhoz képest a NYÁK igencsak kis méretű lett. Ez ugyanakkor nem meglepő, hiszen a csúcsterméknél mindent bele kell adni és mivel ugye nem volt node váltás, így a busz szélesítésével lehetett nagy memóriasávszélt elérni.
    Szintén meglepődtem, amikor megmutatták a FE-t, ugyanis sokkal nagyobb hűtésről lehetett olvasni, ehhez képest az 575 W TGP-t az NV megoldotta 2 slotos hűtéssel. Na ez szerintem egy újabb mérnöki bravúr.

    Szóval röviden tömören Blackwell-t nem szándékozom venni, viszont a DLSS 4 újításainak nagyon örülök és alig várom, hogy az új modellt működés közben láthassam. Az 5090-et pedig több szempontból is mérnöki bravúrnak tartom, nagyon kíváncsian várom a január 30-at, akkor majd özönlenek a tesztek.
    A TPU egyik szerkesztőjével maximálisan egyet értek, azt írta:
    "At least someone is pushing the limits for GPUs."

    Ja még 1-2 dolog mindig van, ezeket fura mód a legtóbb sajtó nem nagyon kapta fel, pedig rendkívül hasznos újítások:
    - Neural Rendering in DirectX: Cooperative Vector Support (itt a korábbi Inno3D doboza pontos volt)
    - RTX Mega Geometry
    - RTX Neural Shaders
    - RTX Neural Materials
    - RTX Neural Radiance Cache
    - RTX Neural Texture Compression: ezt a nyáron nagyon eltaláltam (ezért emeltem ki félkövérrel):

    2024-06-22 16:20:40
    "Ha az RTX50-nél tovább tudnák emelni az L2 cache méretét és a NTC production-ready lesz a launch-ra, akkor újra tudnak spórolni a VRAM-mal. :)

    2024-07-29 19:15:14
    "Ahogy azt írtam korábban, én arra tippelek, hogy a DLSS 4 az NTC-t fogja hozni, és ez az új shading cucc majd a következő nagy DLSS dobása lehet."

    Az NTC-re ráhibáztam. ;)

    A fentebb említett fejlesztői feature-ökről (pl.: Mega Geometry) is hosszasan lehetne még beszélni, de helyettem beszéljen az NV blog, ahol ezeket részletezik.

    Szóval mind a a játékosoknak, mind a játékfejlesztőknek számos hasznos szoftverfejlesztést hozott magával a Blackwell bejelentés.

    Ezek után talán most már még jobban, tökéletesen érthető Jack remegése a színpadon. :DDD

    [ Szerkesztve ]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    MSI hivatalos sajtóközleményben kotyogta ki a DLSS 4-et.

    MSI announces GeForce RTX 50 gaming laptops, confirms GeForce RTX 5090 24GB GDDR7 and DLSS4

    Arról viszont semmit nem írnak, hogy milyen újítást fog hozni. Ez mindössze megerősíti, hogy a Blackwell hozza a DLSS 4-et magával.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz b. #47048 üzenetére

    Pont most olvastam 1 perce a CB-en, viszont a HDMI 2.2 a mostani új VGA-kon biztosan nem lesz, legalábbis a CB azt írja, hogy 2025 első félévben fogják megkapni a különböző partnernek a 2.2-es specifikációkat, azaz a gyakorlatban még várni kell rá, még az is lehet, hogy idén még nem lesz semmilyen 2.2-es eszköz a piacon. Az viszont jó hír, hogy megduplázták a sávszélességet és ezzel ledolgozták a hátrányt a DP-hoz képest. Nekem mondjuk kicsit fura, hogy csak alverziót léptek, mert szerintem sáv duplázásnál simán lehetett volna HDMI 3.0 is.

    Ja a TPU is írja:

    "The new specification will be available to all HDMI 2.x Adopters and they will be notified when it is released in H1 2025."

    Akkor ez majd mehet az RTX 60-as szériára. :D

    Még nem is adták ki a speckókat, így kizártnak tartom, hogy a Blackwell-en ez lesz.

    [ Szerkesztve ]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    VESA introduces DisplayPort 2.1b and DP80LL (Low-Loss) specifications in collaboration with NVIDIA

    Ez alapján akkor nagy valószínűséggel, illetve feltételezhetően DP 2.1 UHBR20-as csatlakozók lesznek a Blackwell kártyákon, legalábbis a VESA fenti bejelentése után igencsak furcsán venné ki magát és eléggé gáz lenne, ha nem így lenne. :)

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz T.Peter #46977 üzenetére

    A stutter közvetlenül roncsolja a játékélményt, nem értem mi az, hogy közvetett performance probléma, amikor látod hogy akad a játék az hogy lehetett közvetett? :F

    A shader compilation akadás az egyik súlyos problémája/tünete a motor működésének. Ezt a tünetet lehet kezelni shader precompilation-nel. A kérdés, hogy a játék fejlesztője foglalkozik-e ezzel a dologgal és ha igen, sikerül-e neki lefedni a szükséges shadereket. Ez olykor sikerül, olykor nem. Az is tény, hogy a legtöbb indie fejlesztő nem foglalkozik ezzel a tünettel, így az UE indie játékok túlnyomó többsége egy stutter fest, ahol az első benyomást teljesen tönkreteszi a shader akadás. Márpedig ez a motor működéséből származó probléma, tehát igenis van köze a motorhoz. On the fly shader fordítás ennél a motornál nem elég jó, ezért ha az adott játék készítője nem foglalkozik ezzel, a játék garantáltan stutterfest lesz (a legtöbb indie cím emiatt sajnos az).
    E mellé társulnak még az úgynevezett traversal akadások, amelyek általában területek betöltésekor jelentkezik, de van, amikor teljesen véletlenszerűen. Ez is a motor működéséből fakad, csakhogy erre a tünetre már sokkal nehezebb gyógyírt talán, pontosabban nem nagyon van a fejlesztők többségének, mert a motor streaming rendszerét kéne átírni, hogy optimális legyen. A legtöbb fejlesztő pedig nem fog belenyúlni a motor kódjába, tehát maradnak a traversal akadások.
    Önmagában külön-külön is nagy probléma mindkét fajta akadás, de együtt a kettő egy totális katasztrófát eredményez, ami teljesen megöli a játékélményt, ráadásul a shader akadás pont az első benyomást teszi tönkre, márpedig pont az első benyomás a legfontosabb.

    Na most vannak olyan motorok, amelyeknél ezek a problémák nem léteznek, az egyszerűség kedvéért ott a korábban említett Anvil és Snowdrop. Ezeknél még shader precompilation-re sincs szükség, még a nélkül sincsenek akadások, mert mind az on the fly shader fordítás mint a streaming rendszer baromi jól működik ebben a két motorban.

    Szerintem meg az nem normális, hogy a motor egy súlyos problémáját a játékfejlesztőkre próbáljuk kenni. A játékfejlesztők csak kezelni tudják az egyik tünetet, de orvosolni nem. Az orvosolásra az Epic már több alverzió óta teszt kísérleteket, folyamatosan próbálják javítani a PSO problémát. Ha nem motor probléma lenne, az Epic nem foglalkozna vele. Sokáig nem is foglalkoztak vele, de szerencsére kellő mértékű sajtóvisszhangot kapott már a dolog és egyre több felhasználót zavar a shader fordítás miatti stutterfest.

    #46976 Komplikato: Nem is állítottam, hogy lényegtelen, hanem, hogy semmire nem garancia. Semmit nem érsz egy 5.4-el se, ha az új feature-ök nem/rosszul működnek vagy nem használja a játék készítője.

    "Jelenlegi problémás játékok multiplatformos, régi bugos verzióval futnak és/vagy UE4 alól rántották át őket a kötelező favágó meló kihagyásával."

    LOL
    Melyik verzió számít neked nem réginek és nem bugosnak?

    # 46992 GeryFlash: Busterftw már megválaszolta, csak megerősíteni tudom őt: idán tavasszal lesz 3 éves az UE5, mert 2022-ben jelent meg.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz T.Peter #46968 üzenetére

    Az alverzió abszolút semmire nem garancia, főleg nem arra, hogy a játék hogyan fut, láttunk erre példákat, láttunk olyan 5.4-es játékot, ami ugyanúgy akad, mint egy 5.1-es. Nem a verziószám fogja rendbe rakni a játékokat, ha a fejleszt nem foglalkozik a gondokkal.
    Amikor a legújabb drága játék úgy akadozik, hogy tönkreteszi a játékélményt és ezt minden PC-n teszi, az szerintem eléggé botrányos és sajnos nagyon sok UE játékra igaz ez, nem véletlen égett ki Alex a DF-nél a sok stutter game miatt, meg is értem.
    A LOD popin szintén egy olyan dolog, hogy azt az UE neked nem fogja automatikusan megoldani. Rengeteg UE5 game popinol, sokkal jobban, mint az Avatar, utóbbinál pedig csak akkor veszed észre ha magasba repülsz és kizárólag arra figyelsz.
    Rengeteg játékost sokkal jobban zavar a random akadás, mint a popin. Ahogy írtam én is, még nagyon fiatal motor az UE5, még rendbe tehetik a stutteringet, de arra még nagyon sokat kell várni, másrészt nyílt világú játékok esetén a hatékonyságban semmi nem tudja felvenni a versenyt az Anvil és Snowdrop motorokkal, de ez nem csoda, hiszen az Ubi nagyon sok időt és pénzt ölt ezeknek a motoroknak a fejlesztésébe és kifejezetten a nyílt világú dizájn fekszik ezeknek, ezért is iskoláznak le minden más motort a piacon e téren.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz b. #46946 üzenetére

    "Most is azt gondolom, szükség lenne egy Crysis momentumra a játékiparban, amikor egy 5090 is dadog 30 FPS sel, de nem azért, amiért a mai játékok zöme, mert szarul van megvalósítva, hanem mert olyat tesz le az asztalra fizika, vagy bármi egyéb terén ami egy mérce sok évre előre..."

    Már megtörtént, ott vannak a Path Tracing-et támogató játékok (pl.: Alan Wake 2, Cyberpunk, Star Wars Outlaws, Indiana Jones stb.), de PT nélkül is kaptunk olyan alkotást, ami olyan magasra emeli a grafikai lécet, amit jelenleg semmilyen más játék nem tud megközelíteni és nem véletlen emlegetik páran az új Crysis-nak, ez pedig az Avatar Frontiers of Pandora. Az új Snowdrop olyan szintet képvisel, amit egy UE5 meg sem tud közelíteni, a növényzet pedig egy teljesen új szint, ami évekkel megelőzte korát és korunkat is. UE5 játékokban még hosszú évekig nem fogunk látni ilyen sűrű és interaktív növényzetet.

    Szóval az új Crysis-t szerintem már megkaptuk több játékban is és ezek majdnem mindegyike saját, belső fejlesztésű motort használ (Wukong UE5-öt használ, de ennek a látványvilága szerintem egyáltalán nem kiemelkedő, sőt!).
    Láttuk tehát, hogy az RTGI az Avatar-nél büntet, most februárban pedig az Anvil motor is megkapja az RTGI-t az AC Shadows-ban.
    Az UE5 mindössze még csak bő 2,5 éve van a piacon, így könnyen lehet, hogy azzal is kapunk majd egy új Crysis-t, de kérdéses lesz a performance, ahol közismert tény, hogy az UE5 botrányosan szarul teljesít.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz deathcrow42 #46888 üzenetére

    Persze, ez nem gond, csak jobb lett volna mindhármat egymás után élőben nézni, de a zöldekét akkor felvételről fogom.

    # 46891 hahakocka: Persze, hiszen a CES Las Vegas-ban van, emiatt 9 óra az időeltolódás.

    Összegezve a három előadás itteni idő szerint:

    AMD: 2025.01.06. 20:00 (CET) - link
    Intel: 2025.01.06. 17:30 (CET) - link
    NVIDIA: 2025.01.07. 03:30 (CET) - link

    [ Szerkesztve ]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz b. #46883 üzenetére

    Ej számunkra nagyon rossz időpontban lesz. Hajnali fél 4-kor biztosan nem fogok fent lenni emiatt, viszont az AMD és az Intel sokkal jobb időpontot találtak, azokat meg tudom nézni, de a zöldeké túl későn lesz.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz Jacek #46043 üzenetére

    Ezek jelen pillanatban a leghitelesebb tesztek abból a játékból. Mi a baj DLC-vel? Ugyanaz a motor, ugyanaz a kód, mint az alapjátékban, ráadásul ott már egészen biztos, hogy a legfrissebb patch volt rajta.

    A másik alatt gondolom a PCGH tesztjére gondolsz. Nem értem mi a gondod vele. Ott be volt kapcsolva a felskálázás, mert a nélkül kb. minden kártya játszhatatlan sebességet mutatott volna, aminek abszolút semmi értelme nem lenne.

    Természetesen minden sajtónál más a test scene, a CB és PCGH test scene publikusak és bárki lemérheti magának, míg a TPU test scene nem ismert, ők valamiért nem publikálják ezt az infót.

    Persze, hogy kisebb a VRAM fogyasztás felskálázás esetén, hiszen olyankor alacsonyabb a rendering felbontás. Az a lényege azoknak. Frame Gen modul növeli a VRAM fogyasztást, de az nincs a tesztekben, mert annak sincs értelme ilyen alacsony sebességnél.

    Természetesen a két oldal launch idején is lemérte a játékot.

    A PCGH tesztben egyébként találsz natív tesztet is a Raszter grafikonnál. Már ott látszik, hogy ez a játék brutálisan megeszi a VGA-kat natív 4K-n még RT nélkül is, tehát itt sima Raszter, azaz RT nélkül láthatjuk, hogy a natív 4K-hoz így is kell az RTX 4080 és a csúcs Radeon. Ezért nincs értelme PT mellett natív 4K-ban mérni, mert ott kizárólag a 4090 hozna játszható sebességet és nem a VRAM miatt.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz Jacek #46022 üzenetére

    Van teszt, több is, megjelenéskor is volt, illetve a DLC-kől is. Két aktuális teszt, amiket a DLC-k alapján készítettek, tehát ez már patch-elt verzió.

    CB
    PCGH

    Ahogy láthatod a DLSS/FSR az AMD-n semmit nem segít, ellenben a 12 GB-os Ada kártyák már nem futnak ki a VRAM-ból 4K felbontáson, mert ott is a GPU erős fogy el előbb, ahogy AMD-n, de ez nem számít, hiszen a 12 GB-os kártyák nem 4K-ra valók, nem oda lettek pozícionálva, nem az a célközönség. Ettől függetlenül persze meg lehet próbálni, de nem szabad csodát várni: az Alan Wake 2-ben full maxon, azaz Path Tracing mellett 4K-ban kizárólag az RTX 4080 (Super) és 4090 tud játszható sebességet produkálni.

    Full RT (PT) mellett a natív 4K-nak semmi értelme, mert ott egyik kártya sem lenne képes játszható sebességet hozni, talán esetleg a 4090 képes lenne rá, de ott is nagyon necces lenne.

    A tesztekben tökéletesen láthatod, amit Buster már milliószor leírt: nem a VRAM-mal van gond, hanem a GPU erő fogy el. Értelemszerűen, ha játszható sebességet feltételezünk, mert játszhatatlan sebesség esetén teljesen mindegy, hogy melyik kártya mennyi FPS-t présel ki, amikor a végeredmény ugyanaz mindnél: játszhatatlan a játék.
    Csakhogy még érthetőbb legyen: a 12 GB-al felszerelt 4070-es 60-80%-al gyorsabb, mint a dupla annyi (24GB) VRAM-mal felszerelt csúcs Radeon, de ez önmagában szintén nem jelent semmit, mert a 17-20 fps ugyanúgy játszhatatlan kategória, mint a csúcs Radeonnál a 11 fps. Itt egyébként a 10 GB-al szerelt 3080-al ugyanazt a tempót hozza, mint a 24 GB-os csúcs Radeon, de amint mondtam lényegtelen, mert mindkettővel játszhatatlan.

    Játszható sebességet csak az RTX 4080 és 4090 tud kipréselni magából, de ha itt kikapcsolnád a Quality felskálázást, akkor ezek a kártyák is diavetítésbe váltanak, de NEM a VRAM miatt, hanem mert egyszerűen elfogy a GPU erő. E miatt ebben a játékban a natív 4K-nak semmi értelme.
    A 4070 esetében 4K-ban szintén a GPU erő fogy el, hiszen a 24 GB-os 3090Ti sem gyorsabb, mindkettőn játszhatatlan a 17 fps miatt. Ha 1440p-re váltunk - ahová a 4070 való, ahova szánták -, akkor már játszható sebességet kapunk, megvan a stabil 30 fps. Ez ugyanakkor nem mondható el a 24 GB-os csúcs Radeonról, ami még a 10 GB-os 3080 tempóját sem éri el.

    Jelenleg úgy néz ki a helyzet, hogy játszható sebességet AMD oldalon csak a csúcs kártya képes hozni felskálázott 1080p felbontáson. Ugyanezen beállítások mellett egy 10 GB-os RTX 3080 ugyanazt az élményt fogja adni, sőt jobbat, mert a DLSS jobb képminőséget ad, mint az FSR.

    Tehát összességében az Alan Wake 2-ben sem okoz hátrányt a 12 GB VRAM az Ada kártyákon, mert a GPU erő előbb fogy el. Előbb lesz játszhatatlanul alacsony a sebesség, minthogy elfogyna a VRAM.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    GeForce RTX 5090 graphics card featured in a factory trial video

    Egy tápcsati megy a kártyába, ez megerősíti a Segotep kijelentését, miszerint nem kell két 16 pines csati az 5090-nek.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz gbors #45555 üzenetére

    :DDD
    Nekem erről eszembe jutott az egyik lottó reklám: Megtörténhet!

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    Power supply maker dismisses RTX 5090 dual 16pin rumors, teases more Info in January

    Egy kínai tápgyártó megcáfolta azokat a pletykákat, melyek dupla 16 pines csatlakozóról szólnak az RTX 5090 esetében.
    Azt hiszem innentől az ilyen jellegű pletykák teljes mértékben alaptalannak tekinthetőek.

    Ezen felül burkoltan megerősítették, hogy januárban lesz az RTX 50 széria bejelentés. Ez egybevág a korábbi pletykával.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    Ebben a témában már koppantál egy nagyot.

    Mondjuk ahhoz képest, hogy idénre vártad/jósoltad a PCI-E 6.0 lapok megjelenését, most már 1 évvel későbbre várod.
    Jövőre sem lesz 6.0, ahogy idén sem lett. Jövőre az 5.0 éra kezdődik a konzumer vonalon.
    Arch refresh esetén soha nem volt PCI-E váltás, most sem lesz. Érthetetlen számomra honnan jön egyáltalán az ötlet.

    Hiába tud a Blackwell szerver fronton 6.0-t, konzumer vonalon nem lesz, mert teljesen értelmetlen, ugyanis nem létezik olyan platform ami támogatja. Jövőre sem lesz, mert se az Arrow Lake, se a Zen5 nem támogatja, hiába vártad az utóbbinál.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    Blackwell gyorsítók olyan rekord mennyiségű előrendelést generáltak, hogy 1 évre előre elfogyott az összes, azaz, ha valaki ma ad le előrendelést Blackwell GPU-ra, egy teljes évet kell várnia.
    Amíg a Hopper-t tízezres nagyságrendben vásárolták, addig a Blackwell-re százezres nagyságrendű előrendelés érkezett. Olyan ügyfelek állnak sorban, mint például Amazon, META, Microsoft, Google, Oracle.
    Forrás

    Ez megerősíti Jensen és a Foxconn vezetőjének a kijelentését, miszerint őrült nagy a kereslet a Blackwell-re.

    #45471 M@trixfan: Nem.

    [ Szerkesztve ]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz KRoy19 #45467 üzenetére

    Van értelme. Én is sok játékot így játszottam, amíg az előző monitorom volt.

    "Vagy nem minden játék támogatja a DLAA-t, ami a DLSS-t?"

    Pontosan.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz gbors #45257 üzenetére

    Sajnos igen.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz b. #45254 üzenetére

    :K

    "The application of generative AI enables creation of a near-perfect inverse mask or inverse solution to account for diffraction of light involved in computational lithography. The final mask is then derived by traditional and physically rigorous methods, speeding up the overall optical proximity correction process by 2x."

    "This enormous speedup of computational lithography accelerates the creation of every single mask in the fab, which speeds the total cycle time for developing a new technology node. More importantly, it makes possible new calculations that were previously impractical."

    Nem csak az aktuális node-okat gyorsítja be (maszkok létrehozása), hanem új node-ok kifejlesztését is felgyorsítja, továbbá olyan új technológiák alkalmazását, ami eddig nem volt praktikus.

    "With accelerated computing, 350 NVIDIA H100 Tensor Core GPU-based systems can now replace 40,000 CPU systems, accelerating production time, while reducing costs, space and power."

    350 db H100 gyorsító 40.000 db CPU feladatát veszi át, csak gyorsabban és hatékonyabban.

    Azon se lepődnék meg, ha esetleg az NV ezzel a lépéssel a TSMC-n belül a saját dedikált node-jukat fejlesztenék elsősorban.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    NVIDIA’s Jensen Huang CES 2025 keynote confirmed for January 6: possible RTX 50 series reveal

    Ezek fényében én biztos vagyok benne, hogy idén már nem lesz RTX 50 bejelentés. Nem is kell rohanniuk sehova konkurencia hiányában.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz Abu85 #44760 üzenetére

    Köszi a listát, de egyrészt értelmetlen és felesleges volt ez beraknod, másrészt ebből látszik, hogy nem sikerült értelmezned amit írtam s megint jó szokásodhoz hűen teljesen másról beszélsz, konkrétan a múltról, mert úgy látszik a múltban ragadtál, emiatt ismét tömény bullshitet írtál le és ismét félrevezeted az olvasókat. Legalább egy picit utánajárhattál volna, mert az elmúlt 10 évben sok változás történt.

    Nézzünk néhány gyöngyszemet:

    "Leginkább azért nem használnak ma már GPU-s PhysX-et, mert valójában sosem fizikáról volt szó, hanem grafikáról, és a compute shader kiváltotta ezt."

    A PhysX 5 több dolgot gyorsít GPU-val, mint az elődei. A fizikai szimulációt hogyan adod el játékban? Úgy, ha azt a játékosok látják, így nyilvánvaló, hogy grafikai elemként prezentálták, de ettől szimuláció volt, akár folyadék szimuláció, akár ruha fog köd szimuláció. A kijelentésed tehát nettó bullshit.

    "Persze az sem segít, hogy az NV a rendszert nem fejleszti már a játékok szemszögéből. A 3.4-es volt az utolsó verzió, ami játékhoz készült. A 4-5 már nem igazán."

    A valóság ezzel szemben az, hogy a két legújabb PhysX sokkal jobb játékra, mint a 3.4. A Unity is hülyeségből integrálta a 4.1-et alapértelmezett 3D fizikai motorként 5 évvel ezelőtt. A hivatalos NV doksi szépen leírja, hogy miket hoztak az új főverziók, 4.1-nél meg lehetne említeni a Immediate Mode-ot vagy az 5-nél a sok új GPU gyorsított feature-t. Szóval, de az NV több hasznos dolgot rakott be a friss verziókba, amelyek játékokhoz is rendkívül hasznosak.

    "A PhysX játékokhoz tervezett verziója 2018 óta gyakorlatilag vegetál. Nem tudni, hogy az NVIDIA valaha is újraindítja-e."

    Tehát te nyilván a 3.4-et tekinted az utolsó, játékra alkalmas verziót. Ettől nem is lehetnél messzebb a valóságtól. A PhsyX nem vegetál és a legújabb verzió is kiválóan alkalmas játékra, jobb, mint a 3.4, itt is a múltban ragadtál.

    "Abból kiindulva, hogy már arra is figyelmeztették a fejlesztőket, hogy a PhysX runtime kikerülhet a GeForce driverből, így a GPU-s PhysX effektek a játékokban elszürkülnek majd, arra lehet következtetni, hogy nem jön vissza ez az irány."

    Pontosan melyik fejlesztőt figyelmeztette az NVIDIA és mikor? Az irány el se ment, így nem is tud visszajönni, mindössze most már nem verik nagy dobra, ha a fizikai számítások egy részét GPU gyorsítja. Ma már nincs marketing értéke.

    "A karbantartási költségektől pedig 6-7 év vegetálás után valószínűleg megszabadulna a cég."

    Feltételezem továbbra is a 3.4-ről beszélsz, el kéne azt engedni, az NV és mindenki más is elengedte a piacon, csak te ragaszkodsz hozzá foggal körömmel valamiért. Azóta sok év eltelt, lépjél túl rajta.

    Az utolsó bekezdéshez annyit, hogy az is nettó bullshit, ugyanis fizikai szimulációt lehet GPU-val gyorsítani. Nyilván nem a teljes szimulációt kell itt érteni, hanem részfeladatokat a GPU el tud végezni sokkal gyorsabban, mint a CPU, pont úgy, mint RT esetén. Amíg RT fronton a hardveres gyorsítás igen masszív marketinget kap, addig a GPU gyorsított fizikai szimulációk már nem, pedig él és virul, a PhsyX 5 több dolgot tud gyorsítani GPU-val, mint bármely más korábbi verzió.

    # 44762: "Semelyik motor nem használja azt a modult alapértelmezetten, mert licencköteles. Csak CPU-s PhysX-et használnak a motorok alapból, mert az viszont ingyenes."

    Ahogy mondtam: a múltban élsz, ezt most megerősíttetted, ugyanis a GPU gyorsításnak semmilyen felára nincs a PhysX 4.0-tól kezdve. A valóság így néz ki:

    "PhysX has also become a key reference implementation of the similarly open source Pixar Universal Scene Description (USD) Physics standard available at PixarAnimationStudios/USD on GitHub. This informed the decision to return to the more permissive licensing terms used for PhysX 4. This means that all CPU source code is available under the simple BSD3 open source license, and NVIDIA GPU binaries are included at no cost."

    A többi szóra sem érdemes.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz Teasüti #44740 üzenetére

    Ez nem ilyen egyszerű. A PhysX régen a 3.4-es verzióval brutál nagyot gyorsult CPU fronton, később viszont, a 4-es és 5-ös verziókban több dologra is használhatsz GPU gyorsítást a CPU számítások mellett tehát, nem úgy van, mint régen, hogy csak CPU vagy csak GPU-t használsz, ma már a hibrid megoldással nem lehet tudni, hogy melyik játék használ GPU gyorsítást a fizikában. Egyrészt sok száz UE és Unity játék alapértelmezetten PhysX-et használ, azt nem tudhatjuk, hogy ezek közül használ-e valamelyik GPU gyorsítást valamilyen fizikai számolásra.

    "Illetve mutass egy olyan húzó címet, ahol a játékmenet szerves része a fizika!
    Kizárólag Havok-ra jött olyan cím, ahol a fizika megkerülhetetlen része volt a játéknak."

    Nem tudom neked mi számít húzócímnek, de szerintem nem is kell annak lennie, de például az X-Morph Defense című játékban a játékmenet szerves részét képezi a fizika és az PhysX 3.4-et használ. Abban a játékban kulcsfontosságú, hogy egy épületet hogyan rombolsz szét, mert attól függően fog ledőlni és nem mindegy merre dől.

    "Több száz használ PhysX SDK-t az igaz. Ezek közül mennyi használ hardveres PhysX-et a CPU helyett?"

    Igazából több száz helyett kb. 10.000 :)
    Ahogy írtam, ma már nincs értelme különbséget tenni, hiszen a PhysX SDK-val több részfeladatot meg lehet oldani GPU gyorsítással, arról nincs információ, hogy mely játékok ezek, hiszen a fejlesztők ezt nem reklámozzák ami logikus, hiszen ez ma már alap dolog. Attól, hogy egy fejlesztő nem reklámozza, lehet hogy használnak némi GPU gyorsítást, nem tudjuk, de nem is fontos. Sokaknak azért fontos, mert akkor régen a GPU gyorsítással értek el látványos fizikai szimulációt, melyeket ma mér a CPU is simán megold, ugyanolyan gyorsan (lásd a korábban említett 3.4-es verzió).
    Egy másik, népszerű indie alkotás a Kerbal Space Program, ami szintén PhysX-et használ, hiszen az a Unity motor alapértelmezett 3D fizikai motorja. Ez csak két kiragadott példa volt, ahol a fizika szerves része a játékmenetnek.

    Nem az a fontos, hogy használja-e valamelyik játék a GPU gyorsítást, mert a 10.000 játékból nagy valószínűséggel sok használja. Inkább az a kérdés, hogy a fejlesztők túlnyomó többsége miért nem használja ki az SDK és egyéb fizikai motorok adottságait. Nem sokat látunk a fizikai motorok képességeiből játékokban. Nyilván van jó néhány, amely fizikára épít játékmenetet szempontból, ezek túlnyomó többsége indie alkotás.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    NVIDIA Announces Financial Results for Second Quarter Fiscal 2025

    2. negyedévben 30 milliárd dollár összbevétel

    Ebből 26,3 milliárd az adatközpont és 2,9 milliárd a gaming, mindkettő növekedett.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz -=RelakS=- #44570 üzenetére

    Én 2000 karácsonyán kaptam tesómmal közösen az első PC-met, abban egy Voodoo Velocity 100-as kártya volt. Quake 2-t és Half-Life 1-et szépen vitte (akkori mércével), de a Quake 3 alatt letérdelt (640×480 felbontáson is), amin az utódja a Geforce MX400 sem segített sokat, de aztán 2003-ban vettem új PC-t, abban egy Geforce 4 Ti 4200 volt, ami kiröhögte az id tech3-mat a több száz FPS-el (1024×768-as felbontáson). :) Aztán a Doom 3 alatt a GF 4 Ti már nem röhögött, inkább izzadt. :D

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz D55 #44564 üzenetére

    Rossz embernek válaszoltál. Nem én állítottam, hogy parasztvakítás. Nekem nem szokásom leszólni olyan dolgokat, amikhez nem értek és/vagy nincs vele tapasztalatom.
    Szerintem gainwardgs kollegának akartad címezni.

    Ha majd eljön az idő, hogy olyan játékot fogok tolni, amiben van Frame Gen, nagyon nagy valószínűséggel be fogom kapcsolni, mert már nem 60 Hz-en vagyok. Engem érdekel ez a technológia, mindenképp ki fogom majd próbálni és számomra nem parasztvakítás.

    #44563 -=RelakS=-: Nyilvánvaló, gondoltam ezt nem kell hozzátenni, mert feltételezem mindenki tud grafikont értelmezni és aki kicsit is jártas a témában, annak se kell ezt külön kiemelni. Akkoriban, 20 éve az az 1600×1200 volt kb. az a felbontás, mint ami ma a 4K, az über alles, akkoriban az élsimítás ölte a kártyákat, ma az RT. Mindig van egy új technológia, ami megfekteti a kártyákat. Idővel majd aztán az RT is semmiség lesz, ahogy ma az AA.

    [ Szerkesztve ]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz gainwardgs #44555 üzenetére

    Ahogy KRoy19 is nagyon jól írta, nem kötelező maximális grafikán játszani.
    Nem értem mit értesz az alatt, hogy a Frame Gen parasztvakítás, de azt sem kötelező használni, visszább veheted a presetet is, kikapcsolhatod az RT-t (feltételezem kikapcsolható lesz) és máris nyertél rengeteg sebességet a "parasztvakító" feature nélkül is.

    "Szép új világ"

    Nincs itt semmilyen új világ, mindig is voltak olyan játékok, amelyek térdre kényszerítették az aktuális csúcs hardvereket is. Például 20 évvel ezelőtt a Far Cry 1 és Doom 3 fektette meg az akkori csúcs VGA-kat. Szóval ez nem új dolog.
    (Pl.: az akkori csúcs hardver, a Geforce 6800 Ultra több játékban még csak meg sem tudta közelíteni a 60 fps-t, ha bekapcsoltad a 4× élsimítást)

    Néhány év múlva majd az akkori középkategóriás VGA-k már simán fogják vinni ezt is natívban maxon, mindig is így volt PC-n. Az aktuális csúcstechnológiának mindig ára van, illetve a legjobb minőségnek is mindig felára volt, azt meg kell fizetni, ebben sincs semmi új.
    Aki nem ragaszkodik az abszolút maximumhoz grafikában, az sokkal jobb sebességet fog kapni.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    Gamescom-on az NVIDIA ismét brutál sok új dolgot jelentett be és hozott, meg se próbálom mindet felsorolni, csak néhányat kiemelnék közülük. Amúgy az NVIDIA oldalán van összefoglaló a bejelentésekről.

    Sok új játék kap RTX támogatást, köztük az új Dragon Age és az Indiana Jones játék, Killing Floor 3 vagy az új Test Drive Unlimited (Solar Crown) is. Új trailer jött a Half-Life 2 RTX projekthez is. Ami engem viszont látványban sokkolóan lenyűgözött, az a Black State, itt olyan elképesztően realisztikus a látvány, hogy ez nekem olyan "túl szép, hogy igaz legyen" szagúnak érződik, csak remélni tudom, hogy ez nem egy újabb "The Day Before" jellegű scam.

    Már sokszor szóba került, hogy a jövő héten startoló Star Wars Outlaws-nak milyen lesz a gépigénye. Erre az NV most adott ki először konkrét adatokat:



    Úgy tűnik frame gen nélkül még a 4090-es is izzadni fog, itt is extrém mértékű a gépigény. 4K natív rendering felbontáson a 4090-es kemény 30 fps-t tud kisajtolni, míg 1080p-ben csak ez képest stabil 60 fps-re (grafikonok szürke része), így borítékolható, hogy a jó sebességhez itt is erősen ajánlott lesz a DLSS.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz b. #44506 üzenetére

    Inkább ne bízz benne, mert csalódni fogsz. 2 éve jelentették be, hogy a CD Projekt UE5-re vált, ezt 2023-ban a lengyel csapat ismét megerősítette. A Cyberpunk 2077 volt az utolsó nagy játékuk RED Engine-nel.
    Sajnos sok jó motort áldoztak fel a kukában az UE oltárán a játékpiacon. Ugyanazon ok miatt dobták ki a saját motorjukat, mint a Flying Wild Hog 4 éve: idő, azaz UE-el gyorsabban tudnak játékokat csinálni. Nem akarnak már az engine-el foglalkozni (értsd: nem akarnak több pénzt költeni erre), helyette inkább több artist-ot és más embert vesznek majd fel, akik meggyorsítják a játékok elkészültét.
    A Crystal Dynamics is kidobta a saját motorját az UE5-ért.
    Igen, kár érte, ahogy nagy kár a Road Hog motorért is, de hát pénz beszél.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz b. #44504 üzenetére

    Ezt pont néhány órája láttam, döbbenetes a látvány, több jelenet olyan, mintha egy fényképet nézne az ember. Itt nagyon látszik az RT és Path Tracing ereje.

    Majd elfelejtettem: #ezfakemertnemnatív ;]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz KRoy19 #44496 üzenetére

    Így van, és pont ez volt az egyik súlyos probléma a Hellblade 2-vel. Na persze Engine.ini-ben valószínűleg le lehet tiltani, de az átlagfelhasználók többsége arról nem tud, így a többség előtt nem tették opcionálissá, ráerőltetik ezt a sok fost a játékosokra, és ha ez nem lett volna elég még a 21:9-es képarányt is forceolták.
    Ezért is mondtam, hogy a készítők ott pályát tévesztettek. Az ilyen fejlesztőknek semmi keresnivalójuk a játékiparban.
    Ha ezek a filmes vírusos sz*rok a játék menüjében teljesen kikapcsolhatóak, akkor semmi gond, de ha nem, akkor a fejlesztők szarjanak süncsaládot minden nap és húzzanak át a filmiparba (Hellblade 2 készítői például).

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz Teasüti #44494 üzenetére

    Remélem egy nap eltűnnek azok a fejlesztők a játékiparból, akik moziélményt akarnak erőltetni egy videojátékba. Az olyanok menjenek a filmiparba, ott nem tudnak kárt tenni és akik mozit akarnak nézni, menjenek moziba.
    A Hellblade 2 fejlesztői pedig pályát tévesztettek. Úgy tűnik az Ubi tanult abból a Ninja Theory hibájából és nem követik el ugyanazt a baklövést.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz b. #44491 üzenetére

    Abból kb. 1 másodpercet mutattak, ami semmi, két hét múlva kiderül milyen lett.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    Kijött a hivatalos PC trailer a Star Wars Outlaws-hoz, ami egyszerre vesz részt az NVIDIA és Intel partnerprogramjában.

    Néhány feature:

    - RTGI (Ray Traced Global Illumination)
    - RT Reflections
    - RTXDI (Dynamic Illumation)
    - DLSS Ray Reconstruction
    - DLSS Frame Gen
    - NVIDIA Reflex

    Ebben a trailerben más nem csúnya a játék. :D Kíváncsi leszek a performance-ra, főleg, mert tele van pakolva RT-vel ez is.

    Mondjuk az, hogy külön kiemelik egy PC portnál, hogy lesz lehetőség 16:9-es képaránnyal játszani, hát ez azért elég gáz, ez kb. olyan, mint azt reklámoznák, hogy hé lehet majd felbontást állítani benne. :W

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz Quadgame94 #44411 üzenetére

    Ez már nagyon nagyon VS téma, amihez nem ez a megfelelő topic, de egy válasz talán még belefér.
    Az a gond, hogy rendkívül szűk látókörűen nézed a dolgokat és kizárólag a DIY piacot veszed figyelembe, miközben az a piaci részesedés kis részéért felel, de akkor nézzük először ezt:
    Az NVIDIA vagy 15 éve masszív előnyben van, utoljára talán 2016-2017 környékén tudott az AMD elég jól visszakapaszkodni olyan 35-40% környékére a Polaris-sal, mivel azt pont piac szerzésre tervezték, sikerült is azzal piacot szerezniük, nem is keveset (az most lényegtelen, hogy bányászat vagy sem). Azóta csak lejtmenet van a pirosaknál, jött egy Vega, ami egy vicc volt, de a Polaris előtt is sikerült egy Fury nevű zsákutcába futniuk a pirosaknak. Az R széria is elég harmatos lett főleg a sokadik átnevezgetés után, szóval ott aztán voltak bőven félrefejlesztések, aztán az RDNA-val próbáltak egy resetet nyomni, csakhogy ott masszív driver gondok voltak, továbbá ott volt egy Turing széria, ami ellen semmi esélye nem volt. Az Ampere évében pedig jött a DLSS 2, Broadcast stb. RTX funkciók, melyekkel rengeteg vásárlót tud(ott) az NV magához csábítani, tehát onnan nagyon masszív szoftveres előnyre tett szert a zöld oldal. AMD próbálkozott az RDNA2-vel, az önmagában valóban nem rossz, de túl nagy volt a szoftveres lemaradásuk, nem volt annyival jobb az ár/érték aránya az RDNA2 termékeknek, hogy az emberek tömegesen menjenek át. Ezt utoljára a Polaris-sal (RX 400 széria) sikerült elérniük. A vásárlók nem olyan hülyék, ahogy te azt elképzeled, látják, hogy az AMD folyamatosan lemaradásban van, szoftverben eddig több éves lemaradással próbálnak felzárkózni, de sikertelenül, egyszerűen a zöldeknél többet kapnak a pénzükért. Több feature-t és jobb feature-t. Sok vásárlónak ez sokat számít. Sokan kiadnak picivel többet egy olyan termékért, amivel többet kapnak, ezzel nem értem mi a gondod. Miért akarod lenézni azokat, akik a jobb és gazdagabb szoftveres feature set-re szavaznak? Miért lenne irracionális egy 3060-at választani egy RX 6600 helyett? Nem az. Sokakat nem fog érdekelni az a pár tíz dolláros különbség, ha cserébe megkapják a legjobb technológiákat. Érzelmi döntés lenne több pénzt áldozni több és jobb szolgáltatásért? Nem hiszem. Pont, hogy ez racionális. Az a racionális döntés, amikor olyan terméket veszel, amely kielégíti az igényeidet. Sok millió vásárlónak más igényei vannak, mint neked. Vannak dolgok amelyeket nem is lehet számszerűsíteni. Példa: ha valaki nem akar lemondani a DLSS/DLAA nyújtotta temporális stabilitásról, akkor nincs más választása, mert a többi oldal nem elégíti ki az igényeit. Innentől ő magasról le fogja tojni, hogy egy adott oldal milyen számokat közölt az áér/érték szekcióban és mennyire istenítik a másik oldalt, ha ott egyszerűen nincs olyan feature, ami KELL neki, amire szüksége van. Innentől ennek a vásárlónak nem lesz jó az AMD ár/érték aránya, az ő számára nem, mert egy, számára fontos feature-től elvágná magát. Na pont ez lenne az irracionális döntés.
    Ez csak egy egyszerű példa volt, de lehetne akár a CUDA-t is hozni és sok mást is. Ha pedig már CUDA, akkor van itt egy furcsa és számomra teljesen döbbenetes kijelentésed:

    "És itt most nem arról a kis százalékról beszélek akinek a CUDA meg az NVENC elengedhetetlen. Az vásárlók 80 százaléka azt sem tudja mik ezek."

    Pont erről beszéltem, hogy kizárólag a konzumer DIY piac alapján értetlenkedsz. A CUDA a professzionális piacon PIACVEZETŐ. Az adatközpontokról pedig ne is beszéljünk. A CUDA konzumer vonalon is nagyon elterjedt, rengeteg szoftverbe került beépítésre mondjuk GPU acceleration néven, még az Adobe termékekbe is, márpedig az Adobe termékek nem éppen noname, szűk réteget célzó garázsszoftverek, hanem sok millió felhasználói bázissal rendelkező szoftverek. A GPU gyorsítás hajnalán szinte mindenhol a CUDA volt az első, így onnantól nem volt kérdés a siker, még annak ellenére is, hogy itt a PH-n sokszor néhányan halálra ítélték. A halálra ítélés helyett piacvezető lett. Ehhez vegyük hozzá azt a tényt, hogy a DIY piac a piaci részesedés kis részéért felel. Nagy részt az OEM-ek és a mobil felel, ahol az NV már régóta domináns, de ezek már egy másik történet.

    Sokan tehát nem fogják számolgatni, hogy "hűh ez most 20-30%-al gyengébb, de 7,895837365%-al drágább, akkor ez nekem most annyira nem jó üzlet." E helyett sokan a saját igényeik alapján vásárolnak kártyát. Sokan úgy vannak vele, hogy "a másik oldal tudja ezt és ezt? Nem? akkor nem érdekelnek ott az árak!". Ezt pedig továbbra se tartom irracionálisnak, ha az ember tudja mire van szüksége és azt csak az egyik oldal kapja meg. A képletbe még bel lehetne venni azt is, hogy sokan pedig úgy gondolkodnak, hogy "ha valami bevált, akkor miért cseréljem le?"- itt ugyan lehetne biztosan példát találni arra, hogy márkahűség miatt veszik az emberek, de ezt általánosítani egy teljes GPU családra, ráadásul olyan GPU családra, ami a Steam-en világelső, hát...elég meredek kijelentés.

    A szerinted oly nagyon rossz ár/érték aránnyal rendelkező RTX 3060 első helyen van a Steam hardware survey-ben. A 3060Ti pedig 4. helyen. Ha figyelembe vesszük, hogy a Steam-en júniusban 132 millió aktív felhasználó volt, akkor a két 3060-as széria több millió felhasználót tesz ki. Szerinted ők mind irracionálisan vásároltak ilyen kártyát? Ugye hogy nem! Az RX 6700 XT ha jól számoltam valahol a 39. helyen tanyázik.

    Ha nagy röviden össze szeretném foglalni a fentieket: attól hogy neked egy termék nem vonzó, másnak még az lehet, még ha drágább is, ettől nem lesz feltétlen irracionális a másik döntése, mert lehet mások az igényei.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    Egy kis érdekesség:

    Half-Life: Alyx NoVR Mod | RTX 4080 8K Ultra Settings

    Vannak benne bőven frametime spike-ok, illetve közeli robbanás effekteknél vannak nagyobb belassulások, viszont ha belegondolunk, hogy egy darab 4080-as 4K felbontás négyszeresén (vagy 1080p 16-szorosán) rendereli a játékot, az azért nem semmi. VRAM használat natív 8K-ban 14 GB körül mozog.

    [ Szerkesztve ]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz hahakocka #44400 üzenetére

    "Szerintem mondjátok továbbra is a NV marketing osztályos mantrátokat engem nem érdekel már unalmas."

    LOL! :D
    Mondja az, aki rendszeresen szétspammeli az NV topicot AMD termékek reklámozásával, ráadásul write only üzemmódban, minden valóságot nélkülöző általánosításokkal.
    Amúgy sokkal unalmasabb a folyamatos AMD-s marketing hadjáratod olvasni az NV-s topicban miközben a valóságtól teljesen elrugaszkodott kijelentéseid próbáljuk meg helyre tenni.

    "Úgy hogy be fejeztem."

    Hatalmasat szívességet tennél ezzel a közösségnek, előre is köszi!

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz Quadgame94 #44390 üzenetére

    "A 3060 Ti-on aztán hatalmas RT gaming megy :D Ja nem."

    Ja de, azon is lehet RT-vel játszani a megfelelő játékban, a megfelelő beállításokkal. Létezik RT-n kívül sok más szempont is, amiért valaki Ampere-t választ(ott) RDNA2 helyett.

    "Ugyanakkor aki 3060-at meg 3060 Ti-t vett az csakis elfogultságból vette."
    Miért is? Ez a kijelentésed ironikus módon pont, hogy elfogultságra (extrém szűk látókörűségre) utal. Szerintem ezt gondold át, főleg mert máris megcáfoltak téged.

    [ Szerkesztve ]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz hahakocka #44384 üzenetére

    MSRP:
    RTX 4080S: $1000
    RX 7900 XTX: $1000

    Raszterben átlagosan 1-4%-al gyorsabb a 7900 XTX, ami semmi, kb. mérési hibahatár, egy szinten van a két kártya. Van azonban egy fontos tényező, amit nem veszel ismét figyelembe: egyre több játék támogatja a RT-t, sőt egyre több játékban lesz kikapcsolhatatlan RT, már most is vannak ilyen játékok a piacon és ezekből több lesz, ott pedig NV előny van. Erre rájön az a tény, hogy sok száz játékban van már DLSS, ami messze a legjobb minőségű és egyben legszélesebb körben elterjedt upscaler PC-n. Ennyi pénzért miért szopatná meg magát egy vásárló azzal, hogy elvágja magát a legjobb képminőségtől? A legtöbb vásárló nem mazochista és ezt a piaci részesedés is tökéletesen alátámasztja.
    A 24 GB VRAM jelenleg semmilyen előnyt nem jelent.

    Azonos áron a 4080S a nobrainer, ha pedig kicsit drágább (itthon kb. 10%-al), akkor is a legtöbb vásárlónak megéri a kb. 10%-os felárat, mivel többet kapsz, több gyakorlati előnyt kap az ember a pénzéért (DLSS/DLAA, Broadcast).

    Az ilyen VS témákat légyszi legközelebb a megfelelő topicba vidd, köszi!

    #44383 Quadgame94:

    "És akkor a fórumon jön a magyarázat, hogy a DLSS, meg a jobb szoftver miatt vesznek NV-t. Nem. Márkahúség miatt. DLSS meg RT előtt is többen vettek NV-t. Szoftver... ugyan már."

    Attól, hogy félkövér betűtípussal írsz, még nem lesz egy hamis állításból automatikusan igaz.
    Akkor biztosan hülyeségből töltötték le tavaly majdnem egymillióan a DLSS mod-ot a Starfield-hez...ugyan már. Sokan nem akarják saját magukat elvágni a legjobb képminőségtől, ezen felül van ott még Broadcast (AMD-nek még mindig nincs erre válasza), Reflex...szóval van ott bőven szoftveres előny. Tehát nem csak a márkahűség miatt vesznek az emberek NV-t, hanem az igen jelentős szoftveres előnyök miatt is.
    Neked is tudom ajánlani a megfelelő topicot.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz b. #44363 üzenetére

    Na ez egy újabb forradalmi dobás lehet, biztos vagyok benne, hogy valamelyik jövőbeni DLSS fő funkciója lesz, de nem hiszem, hogy a DLSS 4-nél, legalábbis én ahhoz picit korainak érzem főleg miatt, mert egyelőre nincs legacy API (DX11, OGL) támogatás hozzá. Na persze az új AAA címek mind DX12 vagy Vulkan API-t használnak, viszont az indie címek ne, így az indie fejlesztőknek ez egyelőre tárgytalan, őket nem tudnák megszólítani a DLSS 4-el, ha ez lenne a húzó feature benne. Én ezt egy esetleges DLSS 4.5 vagy DLSS 5.0-nál látom reálisnak. Itt már csak az lesz a kérdés, hogy ezzel mennyi melójuk lenne a játék készítőknek.
    Na persze nyilván a Nixxes ráugrana, de ők egyedül évente 1-2 PC portot tudnak kihozni, az pedig édes kevés egy új DLSS marketingjéhez.
    Ahogy azt írtam korábban, én arra tippelek, hogy a DLSS 4 az NTC-t fogja hozni, és ez az új shading cucc majd a következő nagy DLSS dobása lehet.

    Végül is a kettő nem zárja ki egymást, így ha jövő évben a DLSS 4 mindkettőt hozza, az egy újabb erős fegyver lehet a zöldeknél. Én viszont még kicsit korainak érzem.

    #44364: Felnőnie a többinek? Ugyan már, ne nevettess, egy másik topicban meg lett mondva, hogy az FSR 3.1 a legjobb, szóval a DLSS-nek és XeSS-nek kell felnőnie az FSR-hez. Most már tudjuk, hogy az a jó, ha eltűnnek a részletek, mint mondjuk a különböző részecske effektek.
    (Trololololol!) ;] :D
    /Irónia off

    [ Szerkesztve ]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz Teasüti #44296 üzenetére

    "AV1 dekóder már volt a 30-asokon is. Az enkóder került bele a 40-esekbe."

    Igen, tudom, nem állítottam az ellenkezőjét.

    Én nem használok videó felskálázást, de igen, az nyilván jobban terheli a GPU-t.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz gV #44293 üzenetére

    Hát ez az, egy RTX 40-es VGA ezt megoldja 30 Wattból. :)

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz S_x96x_S #44290 üzenetére

    Ja hogy te a megfogalmazáson kötözködsz, sejtettem, hogy ez van mögötte, már kezdtem azt hinni, hogy nem akarod megérteni és csak trollkodni jöttél egy kicsit.
    Igen, te máshogy értelmezed akkor a dolgokat.

    "és ebből pár modult nem támogat az RTX 20 -alatt."

    Egy modult nem támogat. Nem tudom honnan jött a "pár" modul, amikor végig egyről volt szó.

    Attól, hogy a teljes csomagot nem támogatja a 20-as széria, a támogatott modulok tökéletesen működnek rajta, szóval de, a DLSS 3.7 tökéletesen működik RTX 20-as széria alatt, kivéve a Frame Gen modult.
    A DLSS önmagában (további utótag nélkül) általában a felskálázást jelenti. Ha egy játéknál azt mondják, hogy támogatja a DLSS-t, akkor a legtöbb esetben a felskálázóra gondolnak, ami mindegyik RTX kártyán tökéletesen működik.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz S_x96x_S #44287 üzenetére

    Azt hittem egyértelmű és hülyebiztos megfogalmazás az, hogy All RTX GPUs

    Az "ALL RTX GPUs" azt jelenti, hogy mindegyik RTX kártyán működik.
    A táblázat tök egyértelműen írja, hogy a Frame Gen modul kivételével az összes többi DLSS feature mindegyik RTX kártyán működik.

    A DLSS 3.7 is több mindent takar, ahogy írtam a modulok verzióját egységesítette az NVIDIA. Ez azt jelenti, hogy ha csak felskálázást akarsz használni, akkor igen, tökéletesen fog működni a 3.7 is az RTX 20-as kártyán, ahogy a DLAA és RR esetében is. Az egyetlen dolog am RTX 20-as szérián nem megy, az a Frame Gen modul. Ennél egyszerűebben ezt nem lehet leírni és elmagyarázni.
    A DLSS egy csomag, ami több modult tartalmaz, amit jól mutat a táblázat.

    [ Szerkesztve ]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz S_x96x_S #44281 üzenetére

    Öööhh, ok, remélem a hivatalos NV oldal megfelel.

    Bár én most kicsit meglepődtem, mert pont te szoktál tonna mennyiségben az internet bugyraiból mindenféle regény hosszúságú forrásokat keresni, de most 2-3 másodpercet nem akartál szentelni arra, hogy felkeresd a DLSS hivatalos oldalát, ahol amúgy egyértelműen leírják, de nem gond, tessék:

    Super Resolution and
    Deep Learning Anti-aliasing
    (All GeForce RTX GPUs)

    Frame
    Generation
    (GeForce RTX 40 Series GPUs)

    Ray
    Reconstruction
    (All GeForce RTX GPUs)

    Az aktuális DLSS (upscaling) dll fájlokat itt találod, vagy a hivatalos Github oldalon is.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz X2N #44276 üzenetére

    "The best “at a glance” way to guess if a game is compatible is to look at the publish date. Games released between 2000 and 2005 are most likely to work. Games after 2010 are almost certainly not going to work (unless they are modified to support fixed function pipelines)."

    Szerintem az állításod továbbra is extrém mértékű túlzás, de ahogy gondolod. A Remix nem a DX9c kiváltására lett kitalálva, hanem a fixed function pipeline kiváltására.

    #44277 gV: 720p-nél nyilván nincs nagy számolási igény a dekódoláshoz, de ha egy 4K60fps videót nézel, akkor már jóval nagyobb lesz a különbség, főleg av01-ben. ;)

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz X2N #44270 üzenetére

    "Úgy van ahogy mondod aztán lehet használni de csak olyan játékban ahol van dx7-8 támogatás mert a 9-essel már nem működik normálisan"

    egész pontosan:
    "RTX Remix is primarily targeting DirectX 8 and 9 games with a fixed function pipeline for compatibility." - hivatalos github doksi

    mind olyan DX9-es játékot támogat, amely fixed function graphics pipeline-t használ.

    Ennek oka itt részletesen le van írva. Még ezzel a megkötéssel is több száz játékot lehet felújítani, én azért ezt nem mondanám semminek.

    #44271 S_x96x_S :

    "Mivel néha valamivel többet tud ( "AVI Encode", "AVI Decode" - ami nincs az RTX 20-ban. )"
    AV1 dekóder van az RTX 30-as szériában.

    "De a táblázat alapján
    az RTX40-es DLSS 3.5 se megy az RTX 30 és az RTX 20 -on, ahol csak DLSS 2.0 -van."

    A verziószámozás valóban nem a legszerencsésebb az NV marketing táblázataiban, de ennek ellenére kicsit jobban tájékozódhattál volna, mielőtt ekkora valótlanságot beírsz.
    Az NVIDIA több marketing táblázatban a DLSS upscaling modulját (helytelenül) DLSS 2-nek írja, ami viszont már a 3.7.10-es verziónál jár, ami szintén minden RTX kártyán működik.

    Röviden: DLSS upscaler (Super Resolution néven szerepel a táblázatban) összes verziója (2.0-tól felfelé), a DLAA és ezzel együtt a Ray Reconstruction is minden RTX kártyán működik, ezt mondjuk a táblázat is jelzi.
    A DLSS 3.5-ben jött be a RR, de az is működik minden RTX kártyán. Két dolog van, ami RTX 40 exkluzív: AV1 enkóder és DLSS Frame Generation

    Az NVIDIA egységesítette a DLSS upscaler, ray reconstruction és frame gen modulok verziószámát. Aktuális verzió mindháromnál 3.7.10.

    [ Szerkesztve ]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz X2N #44267 üzenetére

    "RTX remix-ből se lett semmi"

    Ke? :F
    "Since RTX Remix Toolkit launched earlier this year, 20,000 modders have experimented with using it to mod classic games, resulting in over 100 RTX remasters in development on the RTX Remix Showcase Discord."

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz Teasüti #44249 üzenetére

    Semmi hivatalosat nem tudni még, így még egyelőre csak pletykák és tippek vannak.
    Egy dolog viszont szinte biztosra vehető, legalábbis nagyon nagy a valószínűsége, hogy lesz egy olyan feature az RTX 50-es szériában, ami a többiben nem, az pedig egy új NVDEC (6th gen), ami H.266 (VVC) támogatást fog hozni.
    Miért tekintem ezt biztosnak?
    - NVDEC már 2 generáció óta érintetlen (Ampere óta, azaz 4 éve)
    - Intel hivatalosan bejelentette, hogy az Xe2 IGP új dekódere támogatni fogja a VVC-t, ha az NV ezt kihagyja 2 év lemaradásban lesznek (2026-ig biztosan nem lesz új arch)
    - már így is késésben vannak: a HEVC-et 1 évvel a publikálás után már implementálta az NVIDIA (Maxwell)

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz b. #44193 üzenetére

    Ha sikerül a NTC-t úgy implementálni, hogy az kizárólag a Tensor magokon fusson, akkor minden RTX kártyán működőképes, pont úgy, ahogy a Ray Reconstruction is. Én egyelőre erősen kétlem, hogy RTX 50-exkluzív feature lesz a NTC, mert a 4060-as széria élettartamát is jelentősen ki tudná tolni, így az NV azt is megtehetné, hogy az RTX 50 kizárólag felső és felső közép kategória lesz, míg 500 dollár alatt marad az Ada generáció. A NTC ehhez tökéletes segítség lenne.
    Ha az RTX50-nél tovább tudnák emelni az L2 cache méretét és a NTC production-ready lesz a launch-ra, akkor újra tudnak spórolni a VRAM-mal. :)
    Csak abban reménykedem, hogy ez (NTC) jobban fog sikerülni, mint a MS DirectStorage GPU Decompression. ;]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    Jensen Huang recently Hinted what DLSS 4 could bring.

    Ha figyelembe vesszük, hogy az NVIDIA 1 éve prezentálta az NTC-t, akkor jó esély van arra, hogy a DLSS 4-el a textúrákra fognak rámenni, ezzel akár jelentős mennyiségű VRAM-ot takarítva meg. Kíváncsi leszek.

    #44190 KAMELOT: Én nem nyomok semmilyen buy gombot, egyrészt én most több évig el leszek a 4070-el, másrészt engem nem érdekelnek a KINGPIN változatok, mármint úgyse vennék olyat magamnak (ahogy más OC-s terméket se).

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz gV #44188 üzenetére

    Számomra azért a legjobb 4070-es az XLR8, mert az a legcsendesebb dual slot design, olyan csendes, sőt csendesebb, mint a legtöbb 3 slotos tégla, de a PNY ésszel csinálta, nem vitték túlzásba. Az XLR8 és a Ventus 3X a tökéletes példák arra, hogy 200 watthoz nem kell 3 slotos hűtés, hanem egy normálisan összerakott dual slot bőven jó és úgyis néma marad a kártya terhelés alatt a tökéletesre csiszolt ventiprofil miatt. Ja és emellett mindössze 850 grammot nyom, azaz sokkal könnyebb, mint a legtöbb 3 slotos tégla hűtő. Ennél már csak a Ventus 3X könnyebb pár grammal.
    A kérdésedre nyilván nem tudom a választ, azt majd az idő eldönti, ahhoz először kell egy kész termék. :) Szerintem idén nem lesz, ugyanis év vége felé várható az első RTX 50-es kártya, és kizártnak tartom, hogy rögtön launchnál lesz KINGPIN design, hiszen kell idő, míg minden tesztelés és hitelesítés meglesz.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz Busterftw #44185 üzenetére

    Eredetileg, amikor tavaly nyáron megvettem az új gépemet, elsőre PNY XLR8-as 4070-et akartam, csak a megrendeléskor az még nem volt kapható a boltnál, ezért lett Ventus 3X. Számomra az összes sima 4070 közül az XLR8-as a legjobb custom design.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    KINGPIN partners up with PNY for next-gen GeForce graphics cards

    Úgy tűnik Vince talált egy új partner az EVGA kilépése után, ez pedig nem más, mint a PNY, akik leginkább a professzionális kártyáikról ismertek.
    A hírben lévő, beágyazott videóban Vince azt is elárulja (11:30-nál), hogy nála még soha, egyetlen 12VHPWR csatlakozó sem égett le, pedig ő aztán a végletekig húzza a csúcs kategóriás VGA-kat. Milyen érdekes. :)

    [ Szerkesztve ]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    Computex-en az NV nem kispályázik:

    DLSS 3.5 With Ray Reconstruction Coming To Star Wars™ Outlaws & Marvel Rivals Gets A DLSS 3 Upgrade

    "Previously, we announced that the PC version of Star Wars™ Outlaws will include support for NVIDIA DLSS 3, NVIDIA Reflex, ray-traced reflections, ray-traced shadows, NVIDIA RTX Direct Illumination (RTXDI), and ray-traced global illumination. Today, we’re excited to announce that Star Wars™ Outlaws on PC has now upgraded to NVIDIA DLSS 3.5 with Ray Reconstruction, further enhancing the fidelity of ray-traced effects."

    Star Wars™ Outlaws | DLSS 3.5 World Premiere

    NVIDIA RTX Remix To Open Source Creator Toolkit

    "In addition, NVIDIA is making the capabilities of RTX Remix Toolkit accessible via REST API, allowing modders to livelink RTX Remix to other DCC tools such as Blender, modding tools such as Hammer, and generative AI apps such as ComfyUI. NVIDIA is also providing an SDK for the RTX Remix runtime to allow modders to deploy RTX Remix’s renderer into other applications and games beyond DirectX 8 and 9 classics.
    Since RTX Remix Toolkit launched earlier this year, 20,000 modders have experimented with using it to mod classic games, resulting in over 100 RTX remasters in development on the RTX Remix Showcase Discord."

    NVIDIA App Beta Update Adds AV1 Recording & One-Click Performance Tuning

    "Available for download via the in-app updater, and from our website, the new NVIDIA app beta update adds 120 FPS AV1 video capture"

    Na ezt majd valamikor kipróbálom. Bár az Action évek óta tud 120 fps-ben rögzíteni, de nem AV1-ben.

    "Introducing Project G-Assist: A Preview Of How AI Assistants Can Enhance Games & Apps"

    A korábbi április tréfából valóságot csináltak. :)

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz hahakocka #43981 üzenetére

    OK. Én megpróbáltam értelmesen kommunikálni, te erre nem vagy hajlandó, inkább továbbra is nyomod a tonna mennyiségű hülyeséget, melyeknek semmi köze a valósághoz.
    Eddig itt a fórumon kb. minden állításodat megcáfoltuk, semmit nem tudtál alátámasztani, továbbá kizárólag azokat az információkat forrásokat veszted figyelembe, melyek neked megfelelnek, de ha valaki korrigálni szeretne téged bizonyítékokkal, akkor két kézzel tolod el magadtól, nem vagy hajlandó azt már megnézni.
    FB-on hiába magyaráztam el neked mindent milliószor szitén bizonyítékokkal, egyszerűen mindent ignorálsz, ami nem a te fake világodnak felel meg.
    Mondom, a te dolgod, de egyrészt itt valószínűleg senkit nem fogsz tudni átverni ezzel a masszív mennyiségű spam kommenttel, továbbá ezzel a hozzáállással saját magad vered át a legjobban. Próbáltunk neked segíteni kijutni az információs sötétségből, de te minden segítséget támadásnak vélsz.
    Ezen felül mi itt vettük a fáradtságot arra, hogy arra válaszolunk amit írtál, de te még erre se vagy hajlandó, átköltöd amit írunk, nem arra reagálsz amit írtunk. Ezzel nem tudunk mit tenni.

    Én itt kiszálltam, mert ennek így nincs értelme, mert ehhez se időm, se kedvem, további jó valóságtagadást!

    #43980 b.: Gondoltam megpróbálok neki segíteni eligazodni a témában, de azt nem tudtam, hogy a hitvallása ennyire extrém mértékben elvakulttá tette. Tanultam belőle. Csak sajnos az ezzel a gond, hogy ő valószínűleg tovább fogja nyomni a sok spammelést és mivel nyilvános fórum, még valaki talán el is hiszi a sok hülyeséget amit összehord.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz Busterftw #43965 üzenetére

    A megoldás egyszerű: csak annak a usernek hisz, aki valamilyen módon negatívan számol be az NV technológiákról, legalábbis a kommentjei erre engednek következtetni. :)

    Szerintem ő akkor se lesz hajlandó észrevenni a különbséget, ha egy nagy csoda folytán NV kártyája lesz, hiszen egyrészt ő kijelentette, hogy "natív hívő", másrészt arra sem hajlandó, hogy a független teszteket megnézze. Gondolom felborzolná a natív hitvallását.

    [ Szerkesztve ]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz hahakocka #43960 üzenetére

    "Szerintem nálad van úgy, hogy hibákat nem nézed sehol ha NV."

    A valóság megint ellentétes a kijelentéseddel. Csak hogy értsd: ha igaz lenne az állításod, akkor például a SotTR-ben nem venném észre a vízfelületeken történő artifactokat, de mivel írtam is róla és a játékban emiatt nem is használok DLSS-t, így az állításod szimplán hamis.

    "de korábban azt állították hogy mindig tökéletes akkor most mégse"

    Pontosan ki és mikor állította ezt? Linkeld be légyszi, de szerintem semmit nem fogsz tudni belinkelni, mert ilyet soha senki ne mondott.

    "DLSS és FSR se mindig tökéletes ennyi."

    Végre sikerült egy értelmes és valóságközeli gondolatot is leírnod.

    #43962: "Pedig régóta azt szajkózza hogy közel van a tökéleteshez és minden helyen leborul a DLSS előtt s isteníti"

    Lásd fenti link, a valóság máshogy néz ki. A SotTR-en kívül van még 1-2 játék, ahol nem vagyok elégedett a DLSS képminőségével, de ezek közül az egyik még fejlesztés alatt áll.
    Csak hogy itt is értsd a lényeget: soha nem állítottam olyat, hogy közel van a tökéleteshez, de ha mégis, linkeld be légyszi, nem emlékszem rá.
    Az istenítés nálad gondolom azt jelenti, hogy nekem tetszik a feature és gyakran használom. Ez valóban így van, bár az istenítés szerintem extrém mértékű túlzás.

    "Amikor vga-t veszek mérlegelek mindig hogy mi a jó és a rossz elem."

    És mégis valamiért kizárólag azt mérlegeled (próbálod magad hitegetni), hogy NV-nél miért rossz az, ami valójában nem rossz. :U

    #43964: "Még azt is szoktátok mondani, főleg Husky, hogy DLSS-el és egyéb kiegészítőivel szebb mint a natív :D Ezt mindenki el is hiszi"

    Ez így is van, több játék esetében. Mindenki el hiszi, aki hajlandó hinni a független teszteknek, illetve aki ki is próbálta. Nem egyszer le lett írva, hogy ez miért van, rengeteg független teszt bizonyítja is, ott vannak a tesztek csak meg kéne nézni/el kéne olvasni azokat. Erre továbbra sem vagy hajlandó annak ellenére, hogy konkrét forrásokat adtunk több topic-ban, te inkább továbbra is két kézzel tolod el magadtól a valóságot.
    Szerinted a Starfieldnél miért volt ebből botrány, miért töltötték le a DLSS mod-ot kb. egy millióan?
    Te azért nem hiszed el, hogy a DLSS/DLAA adta kép néhány játékban szebb képet ad, mint a natív, mert még csak arra sem vagy hajlandó, hogy az ezt bemutató teszteket megnézd/elolvasd. Mi akadályoz meg, hogy megnézd ezeket?

    "De meg fogom majd nézni igaz ha nem jön ki idén az RTX 5070 akkor vagy Intel vagy AMD vel, de kíváncsi leszek."

    AMD és Intel VGA-val nehezen fogod megnézni a DLSS-t.

    "Addigra lesz új XESS, Talán már 4.0 FSR."

    Tényleg, és mit fognak tudni? Erről az egész világ semmit sem tud, de szerintem az Intel és az AMD sem, de neked már tényszerű infóid vannak ezekről. OK. Az FSR 3.1 sincs még kész, jelenleg tesztelés alatt áll, de érdekelne, hogy a 4.0 mit fog tudni.

    "Általában szokta írni nem a tesztek mellé ha valaki mer kritizálni bármit a DLSS el, s amúgy az FSR el is, mert nekem egyelőre az se tetszik félre ne érts."

    Ha még mindig rám célzol, akkor nem tudom értelmezni a mondatod. Mit szoktam írni hova?

    [ Szerkesztve ]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz hahakocka #43953 üzenetére

    Tehát egyetlen user egy játékban történt tapasztalati alapján általánosítasz a technológiára? Remélem ezt nem gondolod komolyan. Amúgy az érintett user utána ezt írja:

    "Actually, I had forgotten that I was using a newer version of DLSS (3.5.10) that has built-in sharpening disabled (post version 2.5.1), which is why it looks so blurry. However, the devs should still update the engine to make use of NIS sharpening as recommended by NVIDIA, so that we can make use of newer versions of DLSS.

    Alternatively, one could apply NIS sharpening on the driver level but it has the very annoying downside of sharpening everything on the screen, including the UI. For that reason, I myself will be sticking with version 2.5.0 for the time being.

    Edit: Having tried out 2.5.0 for an hour, I've decided to switch back to 3.5.10. I definitely prefer the improved image quality of the newer version despite the added blurriness."

    Ő az élesített képet szereti, amit az új DLL kikapcsol, de ő nem hajlandó használni a driveres élesítést, és te neked ezáltal a DLSS minden játékban mossa a képet. Ami valakinek extremely blurry, az másnak lehet jó/normális. Az élesítés nagyon egyéni preferencia.
    Érzed, hogy mi a gond?

    "RTX kártya (S AMD -s) használók írják nem én"
    Én is RT felhasználó vagyok és a DLSS a játékok többségében aranyat ér. Kizárólag tőled láttam/látok ilyen szélsőséges mértékű ferdítés és bullshit általánosítást. Egy random user fórum bejegyzése helyett javaslom, hogy inkább a független teszteket olvasd/nézd, közelebb leszel a valósághoz. Rengeteg teszt van nagyon sok játékból, ahol szinte mindig a DLSS/DLAA adja a legjobb képminőséget, ahogy írtam ott vannak például a TPU/DF tesztek. Azokat miért ignorálod? A másik kérdés, amit már szintén sokszor feltettem, de egyszer sem válaszoltál rá: próbáltad már saját magad? (Közben ezt megválaszoltad hogy valóban nem.)
    Nekem, mint RTX felhasználónak pontosan azok a tapasztalatok, mint amiket a független tesztek közöltek, melyek ellentétesek a kijelentéseiddel. Ez hogy lehet?

    "A Raszternél meg simán látod s könnyen lelövöd."

    Továbbra is kevered a szezont a fazonnal, nem tudod miről beszélsz.

    "Értem a felskálázást meg a kimeneti emelt felbontást, de az 1080p monitorod sose lesz 1440p vagy nagyobb persze picit élesebb lehet majd, de ennyi. De össze nem hasonlítható."

    Nem, ezek szerint továbbra sem érted. Itt is zéró tapasztalattal kijelentesz egy hatalmas butaságot. A saját tapasztalatom és a független teszek is gyökeresen szembe mennek az állításaiddal. Például 1080p és 1620p között óriási a különbség, nem csak " picit élesebb", annál sokkal többről van szó. Te most tényleg jobban akarod tudni, hogy én mit látok a monitoron úgy, hogy neked záró tapasztalatod van vele?

    Nekem egyre jobban úgy tűnik, hogy te kizárólag azokat a felhasználói véleményeket/tapasztalatokat/beszámolókat veszed figyelembe, amelyek a te szélsőséges mértékben elferdített világodnak megfelelnek (pl. upscaler mindig rossz, elmosott képet ad), de ha valaki ennek az ellenkezőjét mutatja, akkor azt ignorálod.

    [ Szerkesztve ]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz Anax #43947 üzenetére

    Valószínűsíthetően igen, nem találtam erre vonatkozó beszámolót/mérést, de ez nem is fontos, mert egyrészt nem erről volt szó, másrészt a 4080 ugyanaz az arch, mint a 4090, így nem sok értelme lenne.
    Ha esetleg meg is lehet csinálni a 4080-al, nem valószínű, hogy megenne 700 Wattot, ugyanis az Ada arch sokkal hatékonyabb az energiával, mint az RDNA3.

    #43948 Raymond: Szerintem Anax arra gondolt, hogy Power Limit nélkül (extreme OC) meddig tudna elmenni a 4080 (Super). Ilyen információt nem találtam.

    [ Szerkesztve ]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz Busterftw #43913 üzenetére

    Igen, ez valóban érdekes, pedig erre már megvan a válasz, RDNA3 kb. 700 Wattot zabál, ha meg akarod közelíteni a 4090 tempóját. :D

    #43927 hahakocka:

    "Amúgy ha belegondoltok , RT ben 1080p ben lehet persze játszani még egész jól olykor, de ma már 1440p-4K korszak van. Teszteken is látszik."

    Hogy látszik a teszteken, hogy ilyen vagy olyan korszak van?

    "Most a csillanó, fény és tükröződés és árnyék + effektek miatt érdemes hátralépni egy felbontást sokaknak akár?"

    Szavaidból egyértelműen arra lehet következtetni, hogy nincs tapasztalatod RT-vel, mármint számottevő tapasztalatod, különben nem kérdeznél ilyet. A válasz pedig igen. Ha valakinek lehetősége van a szebb látványra, akkor miért ne éljen vele? Attól, hogy neked jelenleg az RDNA1-el nincs lehetőséged megtapasztalni az RT-t, attól még nem lesz az automatikusan rossz és ördögtől való. ;)

    DLSS el meg még többet valójában.
    ???

    "Tudom DLSS el elérhető de na mégis vannak artifaktok, ghosting, stb zizi effektek és emellett mégis csak 720p be megy 2024 -ben."

    Itt is milliószor leírtuk már korábban többen, hogy ez hülyeség, nem értem miért hajtogatod még mindig ezt a marhaságot.
    Nem, a ghosting és különböző artifactok nem általános jelenség, néhány játékban előfordulnak, de a legtöbb játékban a DLSS kiváló képminőséget ad, sőt rengeteg játékban szebbet, mint a natív felbontás, főleg akkor, ha a játék saját AA algoritmusa fos minőségű. Rengeteg tesztet találsz akár a TPU oldalán akár a DF csatornáján ehhez kapcsolódóan, mindnél ugyanaz a konklúzió: DLSS/DLAA adja a legjobb képminőséget, FSR a legrosszabbat.
    Artifact terén pont az FSR áll nagyon rosszul főleg a disocclusion artifact jelenség miatt, ami viszont általános jellemzője az FSR-nek. DLSS-nél ez nem jellemző, ahogy XeSS-nél sem. Kukkantsd meg az említett információforrásokat, nem harapnak, sokat közülük az vs topicba is linkeltünk többen.
    Ha belefutsz egy olyan játékba, ahol DLSS/XeSS alatt ghosting van, akkor bármikor könnyen kicserélheted az upscaler verzióját, ami lehet megoldja a gondot, ilyen is sokszor előfordult már, DF is mutatott több ilyen játékot ahol a DLL frissítés megoldotta a gondot. FSR-nél erre nincs lehetőséged, ott megszívtad.

    "720p be megy 2024 -ben"

    Ez a rész pedig szimplán egy hatalmas marhaság. Ezek szerint te még mindig abban a hatalmas tévhitben élsz, hogy DLSS és egyéb felskálázók csak 720p-ben képesek működni? Erre lehet következtetni a szavaidból és tudjuk, hogy ez soha nem volt így. Megnyugtatlak, én minden játékban, amely támogatja a DLSS-t, bekapcsolom azt 1620p kimeneti felbontáson és így 1080p rendering felbontást kapok, ami fényévekkel szebb, mint a natív 1080p. Van viszont olyan játék, amit 4K-ban tolok DLSS Quality mellett, ami ugye 1440p rendering felbontás.

    Nekem ugyanaz a gyanúm, mint RT-nél, hogy életedben egyszer sem láttad még működés közben a DLSS-t veszteségmentes képen, tehát saját gépeden/monitoron, mondjuk RDNA1-el nem is lehet és emiatt abba a hamis hitbe rángatod magad, hogy az rossz.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz hahakocka #43901 üzenetére

    Én továbbra se értem, hogy teljesen alaptalan pletykákat miért kezelsz továbbra is tényként. Szerintem ez az oka, amiért itt rendszeresen töménytelen mennyiségű marhaságot hordasz össze.

    Jelenleg semmi bizonyíték arra, hogy 600 Wattot fog enni az 5090, de ezt te már tényként kezeled.
    Ha így is lesz, az RTX 4090-es hűtések, akár FE, akár custom design, mind 600 Wattra lettek tervezve, és egyik sem közelíti meg a 40-50 cm-t, így nagy valószínűséggel az 5090 sem fogja.

    Ha ennyire félsz a fogyasztástól, akkor a lakásban ne használj se mikrohullámú sütőt, se porszívót, se mosógépet, se vízforralót stb. mert ezek 1 kW-ot is megesznek, akkor a te logikád szerint azok már fel is fogják robbantani a lakást és egész Paksot egyszerre gondolom. Ugye mekkora hülyeség? :)

    "Én tuti nem vennék még milliomosként se ilyen kártyát."

    Akkor miért hozod fel mindig pont ezt a témát és miért zavarnak téged ennyire a csúcstermék (feltételeztt) tulajdonságai? Itt most magadnak mondasz ellent.

    #43903:
    "Pedig folyton-folyvást vannak erről hírek és szakértőknél is nemrég pl akik mindent rendben tettek."

    Én napi rendszerességgel olvasom a hardver híreket, de egyet sem láttam már jó ideje, kizárólag itt a fórumon tőled látom ezeket a dolgokat.

    "Egyik Nvidia rajongó ismerősöm is inkább 12gb os 3080Ti-t vett mert sokat olvasott erről s inkább megijedt a biztosra ment és nem akart 12 PIN-est. Kérdeztem tőle miért nem akart 4070-et, hát csak a 12 PIN miatt."

    Akkor az az ember nagyon erősen félre lett vezetve vagy szimplán nagyon benézett valamit, ugyanis a legtöbb 4070-es custom design 8 pinest csatit használ, így az az emberke úgy tűnik nagyon nincs képben a dolgokkal. Na persze nem rossz a 3080Ti, de egy 4070 Super-rel sokkal jobban járt volna, de úgy tűnik az alaptalan félelem nagy úr.

    "Sokan tartanak ettől."
    Mi az a sok? Pontosan kik? Én valahogy ennek az ellenkezőjét látom.

    Azt sem értem hogyan kapcsolódik a témához a használt piac, illetve miért hoztad fel. A csalóknak pedig aztán végképp semmi köze a témához.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz hahakocka #43887 üzenetére

    Pletyka és tipp. Én nagyon valószínűtlennek tartom, hogy ott lesz a bemutatás, mert egyrészt túl korán lenne a gen refresh (Super) után, másrészt az NVIDIA azt kommunikálta, hogy generatív AI lesz a fókuszban és ipari felhasználás. Harmadrészt ha megnézzük, hogy a korábbi 3 gaming széria mindig a 2. félévben lettek bejelentve, akkor nagy valószínűséggel ez is szeptember környékén lesz bejelentve:

    Bejelentés időpontok:
    RTX 20-as széria (Turing): 2018. augusztus 20.
    RTX 30-as széria (Ampere): 2020. szeptember 01.
    RTX 40-es széria (Ada) 2022. szeptember 20.

    Mivel az AMD-től egyáltalán nem kell tartaniuk (ott sem várható RDNA4), így nem kell, nincs értelme előre hozni, ráérnek ősszel megmutatni az új szériát.

    AMD-nél szintén nem valószínű az RDNA4 leleplezés, ott nagy valószínűséggel a Zen5 lesz a fókuszban, azaz CPU.

    [ Szerkesztve ]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz hahakocka #43791 üzenetére

    Senki nem beszélt itt szar optimalizálásról, csak egyszerűen nem vagy tisztában a technikai dolgokkal, legfőképp a játék technikai hátterével és emiatt régi berögződések alapján teljesen irreális elvárásaid vannak. Az említett játék egyébként forradalmi technikai újításokat hozott, új szintet képvisel a real time render grafikában.

    "2024 ben 1080p-n nem megy egy középkateges vga-n, (Előző gen vga-val) 720p ről skálázás nélkül játszhatóan medium-highon azért szerintem az gáz."

    Szerintem meg inkább az gáz, hogy egy játék alapján általánosítasz teljesen hamis képet, ráadásul a fenti kijelentésed sem állja meg a helyét.

    Natív 1080p/Medium preset mellett a sima RTX 3060 stabil 30 fps-re képes. Ez konzol tempó, ami játszható, ráadásul annál sokkal szebb, ugyanis a konzolos verziók a PC-s Low preset alá mennek látványban, azaz PC-n a Low grafikai preset szebb, mint amit konzolon látsz.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz hahakocka #43782 üzenetére

    Akkor azoknak az embereknek valószínűleg irreális elvárásaik vannak, vagy szimplán csak nem jártasak a témában és emiatt vannak irreális elvárásaik.
    Én meg ismerek olyan embert, akit nem érdekel a Super változat és inkább a sima 4070-et veszi. Akkor 1-1?
    A Full PT persze, hogy megeszi a 4090-et is, ezen nincs min csodálkozni. Ráadásul ez még csak a jéghegy csúcsa, még csak 3 light bounce-nál járunk, így van hová fejlődni.

    Az meg, hogy az RTX 3060 nem bírta az Alan Wake 2-t 1080p High-on 60-al, az teljesen normális, ez finoman fogalmazva megint teljesen irreális elvárás tőled, hogy bírnia kéne. Nem kell.
    Itt a frissített hivatalos gépigény. Csakhogy lásd hova való a 3060:
    1440p/30fps + DLSS Balanced (1485×835 rendering felbontás). Tehát a Remedy 835p rendering felbontás mellett garantálja a stabil 30 fps-t egy RTX 3060-al, ráadásul Medium Preset mellett. Ehhez képest te 1080p rendering felbontás alatt vártál el 60 fps-t High Preset mellett. Érted, hogy mi a gond? Utóbbihoz 4070 kell legalább.
    Az nem a technológia vagy a játékfejlesztő hibája, ha valakinek irreális elvárásai vannak.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz hahakocka #43778 üzenetére

    "A jó sebességhez volt kötelező használni az FSR-t és DLSS-t, tudom mert ismerősöm is használta 6700xt n, arra 'optimalizálták' ezt a 2 gamet"

    Ez továbbra se igaz. Sose volt kötelező, csak nagyon ajánlott, ahogy írtam DLAA és FSR 2 Native nem upscaling. Máshogy is lehet sebességet nyerni, például lehet csökkenteni a grafikai részletességet és/vagy a kimeneti felbontást.
    Olyan pedig nincs, hogy upscaling-re optimalizálták, ilyen nem létezik. Ajánlott volt ezek használata nem véletlen, mert a játék nagyon heavy a masszív RT miatt. PT-ről nem is beszélve.

    "Amúgy a gáz az volt, amikor kijött a Vulkan Fan patch az Alan Wake 2 -höz, amivel 1070-1080 al és 5700 al is már egész jól ment a game a megjelenéskori alap verzióhoz képest."

    A játék kezdetben megkövetelte a Mesh Shader-t hardver fronton, amit a Pascal és RDNA1 nem ismer, emiatt azokon játszhatatlan volt. Idő közben a Remedy készített egy alternatív kódutat a Mesh Shader-t nem támogató hardverekhez és ez masszívan begyorsította ezeket a régi kártyákat.
    Amúgy nagyon sok ember el van tévedve, mármint totál irreális elvárásaik vannak, főleg amikor 7-8 éves hardverrel próbálnak játszani az egyik csúcstechnológiás játékkal. Mégis mire számítanak?

    "De itt arról volt szó hogy ha előre tudták volna hogy lesz 4070 super meg super-TI lehet kivárnak arra a pár hónapra és azt veszik nem a simát."

    Ahogy írtam, akik jártasak a témában, azok számítottak/számíthattak gen refresh-re, akik nem jártasak benne, azok pedig nagy valószínűséggel nem fogja érdekelni a refresh, továbbá vannak olyanok, akik tudták, hogy jön a refresh és mégse azt veszik, mert a sima verzió olcsóbb lett. A te logikáddal akkor soha ne vegyél PC-t, mert mindig jön új hardver, ami azonos áron jobb lesz. :) Nem értem miért vagy ezen fennakadva, a gen refresh egy teljesen megszokott folyamat.
    Még a leglaikusabb emberek is, akik a legkisebb mértékben sem jártasak a témában, ők is tudják, hogy ezek a dolgok folyamatosan fejlődnek és adott pénzért mindig jobb lesz. Több évtizede így működik az elektronikai ipar, köztük a PC is, ezért se értem, hogy most miért teszel úgy, mintha ez most valami új dolog lenne.

    #43779 S_x96x_S: Én nem adok neki esélyt. Majd ha megjelenik az 5090, kiderül melyikünk jósgömbje működött jobban. :)

    [ Szerkesztve ]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz S_x96x_S #43775 üzenetére

    "mennyi az esélye,
    a PCIe Gen6 -os RTX 5090 -nek?
    ( Vagyis a consumer változatnak? )"

    Én teljesen kizártnak tartom, főleg mert a 4090 is még "csak" 4.0 és nagyon erősen kétlem, hogy kimarad az 5.0. Konzumer vonalon most még teljesen felesleges a 6.0, szerintem ha lesz egyáltalán PCI-E előrelépés, akkor 5.0-ra számítok, ha már a Moore Threads meglépte. :)
    Ezen felül az is kizárja a 6.0-t, hogy konzumer vonalon nem létezik olyan platform (CPU+alaplap), ami támogatja.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz hahakocka #43705 üzenetére

    Nem mindent tudtam értelmezni, amit írtál, így csak arra reagálnék, amit sikerült értelmeznem. :)

    "Starfieldben és Alan Wake 2 ben erősen kötelező volt a DLSS-FSR használata eleinte, nem tudom azóta patchekben javult e az optimalizáció."

    Nem. Soha nem volt kötelező upscaling-et használni és még ma sem az. Starfield megjelenéskor nem is támogatta a DLSS-t, ebből volt is egy kisebb-nagyobb botrány, aminek nyomására a Bethesda kénytelen volt azt beépíteni.
    Alan Wake 2-ben sem volt kötelező használni, ajánlott volt az upscaling, de nem kötelező, már megjelenéskor támogatta a DLAA-t és FSR 2 Native-ot, amelyek natív felbontáson számoltak. Ez a játék nem használt saját TAA algoritmust, hanem az élsimítást a DLSS/DLAA, illetve az FSR 2 technológiákra bízta. AMD-sek nyilván ennek azért nem örültek, mert az FSR elég pocsék képminőséget adott, míg a DLSS/DLAA nagyon jó képminőséget adott. Az azonban nem a Remedy hibája, hogy az FSR pocsék képminőséget ad.

    "Emellett sokan azt mondtam hogy megveszik pl az alap 4070 et aztán váltanak Superre amikor kiderül hogy jön, (Tehát kétszer kell vásároljanak de ha tudnák előre vajon akkor is 2 szer tennék?)"

    Kik azok a sokan, hány ember és legfőképp miért tennék? Miért váltana le bárki 15-20%-os tempóelőny miatt egy új kártyát? Semmi értelme, amúgy meg nem kötelező. Ha valaki ezt mégis meglépi, akkor ez téged miért zavar? Eggyel több SKU van a piacon, nem értem ez miért gond.

    "Itt is 4070 super jobb választás most már mint egy sima 4070."

    Nem. A sima 4070 olcsóbb lett, lejjebb ment az MSRP is, míg a 4070 Super jött oda, ahol a sima 4070 startolt. Itthon a sima 4070 már 230k alatt is kapható (most az egyszeri 208k akció nem releváns), korábban ez a kártya drágább volt, így aki kivárt, az most olcsóbban meg tudja venni. Például egy ismerősöm is idén akar új gépet venni és ő most a sima 4070-et sokkal olcsóbban (50k) megkapja, mintha tavaly vette volna. Neki bőven elegendő a sima 4070 tempó is, ahogy sokaknak. Ha valakinek elegendő a sima 4070 tempó, akkor miért vegyen több tízezer Forinttal Super-t? Ezek az emberek pont jól jártak, hogy kivártak, mert olcsóbb lett.

    "De ha ezt előre tudják a 4070 vásárlók lehet kivárják."

    Mit és miért kéne előre tudni? Aki jártas eben a VGA témában, az pontosan tudja, hogy 1-1,5 évente vagy új gen vagy gen refresh szokott jönni, így őket nem lepte meg. Aki nem jártas a témában, azt meg nem fogja zavarni. Úgy teszel, mintha egy en refresh új dolog lenne, miközben régóta van ilyen.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz hahakocka #43680 üzenetére

    Ahogy Quadgame is mondta, kevered a szezont a fazonnal. Nincs itt semmilyen átnevezés. Különböző SKU-k vannak egy generáción belül különböző nevekkel/típusjelzésekkel, ez mindig is így volt. A Super ugyanolyan jelzés, mint egy XT vagy Ti.

    DLSS-t és FSR-t soha nem kötelező használni és nem szoktak alapértelmezetten bekapcsolva lenni (eddig egy játékban sem láttam out of the box bekapcsolva, mindig én szoktam manuálisan bekapcsolni a DLSS-t). Ezeket továbbra sem kötelező használnod, nem ördögtől való dolgok ezek.

    "Veszel egy új GPU-t aztán csak 'segéd software'-el megy rendesen. Azért a plusz pár effektért ami hol jobban néz ki 1-1 game-ben, hol nem nagy szám."

    :F

    #43682: "TI és XT kártyák rég vannak, 2000 es évek eleje-közepétől. A Super és most a Super Ti és az 50-es AMD k ami már túlzás."

    Ahogy már említettem, akkor régen sokkal nagyobb káosz volt a VGA neveknél. Most a két oldal két utótagot használ: a zöldeknél a Ti és Super, míg a pirosaknál XT és XTX. Régen legalább háromszor ennyi volt, most sokkal kevesebb van, emiatt jóval átláthatóbb a felhozatal, szóval abszolút nem értem, hogy mi itt a túlzás, nincs itt semmilyen túlzás ha az utótagok számát nézzük.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz b. #43673 üzenetére

    :K
    Ezért is mondom, hogy mára nagyságrendekkel jobb a helyzet. Régen nagyobb volt a káosz.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz hahakocka #43670 üzenetére

    1 genig átnevezés? Emlékezz vissza az AMD hányszor nevezte át a teljes GCN 1.0 GPU szériát, nem egyszer.
    Amit soroltam az 1 generáción belüli elnevezéseket mutat egy GPU-ra levetítve mindkét oldalon, nem tudom honnan jön a 1,5 gen.
    Mobil vonalat inkább meg se említem, na az az igazi káosz, milyen szép is volt, amikor az AMD 2016 nyarán még mindig - már sokadszorra - átnevezte az akkor 4 éves GCN 1 generációt.

    A Super egy új nevezéktan, az 2018-ban debütált először, de a Ti már nagyon régi, csak hosszú szünetre ment. 2001-ben kezdte el használni az NVIDIA (Geforce 2 Ti). A régi korszakban több utótag létezett, mint például MX, GTS, GT, Ultra, Ti, ezek közül mára kizárólag a Ti maradt fent és hozzá jött a Super. Ebből is jól látható, hogy egyszerűsödött a dolog.

    A piros oldalon ugyanígy: régen volt például LE, SE, Pro, XT, XTX (és még néhány más is), ezek közül mára az XT és XTX maradt meg, a többi kihalt, a két új régi visszatérő csak hosszú szüneten volt, pont úgy, mint az NV-nél a Titanium (Ti). Tehát itt is egyszerűsödött a nevezéktan.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz hahakocka #43668 üzenetére

    Akkor nem jól emlékszel, bár a régen elég relatív, de ha visszamegyünk mondjuk 2006-ba, akkor nem csak 3, hanem még több jelölés volt egy adott kártyatípusnál, sőt egy jelölés alatt két különböző kártya is lehetett, sokkal nagyobb volt a káosz, mint most.

    Nézzünk példát mindkét oldalról:

    GeForce 8800 szériában volt ugye GTX 8800 Ultra, 8800 GTX, 8800 GTS (ebből 2 különböző változat, 320 és 512), 8800 GT

    ATi oldalon is egy GPU köré több különböző kártya készült, például itt az R580:
    Radeon X1900XTX, Radeon X1900XT, Radeon X1900 GT, Radeon X1900 Crossfire Edition, de ide vehetjük akár még az All in Wonder X1900-at is.

    Szóval, de, régen is jellemző volt a sok név, sőt, még nagyobb káosz volt akkor, 1 karit nem csak 3, hanem még több változatban adtak ki.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz M@trixfan #43632 üzenetére

    DLSS és DLAA ugyanazt az élsimítási technikát használja, mindössze annyi a különbség, hogy a DLAA natív felbontáson működik, míg a DLSS upscaling alapú AA.

    A DLDSR szintén egy újfajta technika, ami ugye downsampling (régen a játékok ezt Supersampling-nak hívták, aztán 2014-től általános lett driverben DSR néven, aztán az RTX-ek megkapták a DLDSR-t ami jobb képminőséget ad a hatékonyabb elsimításnak köszönhetően), de jobb minőséget ad, mint a régi (ezért is 2,25× a maximális szorzó).
    Kukkantsd meg a gv kolléga által linkelt DF videót, de az csak egy játékokban mutatja be, a saját tapasztalat nyilván többet ér. :)

    #43634 gV: +1
    Én szinte minden játékban használom a DLDSR-t kombinálva a DLSS Quality-vel pont 1080p a rendering felbontás, de egy natív 1080p-nél fényévekkel szebb a kép, ég és föld a különbség. Jó mondjuk régebbi játékoknál, ahol az RTX 4070 bőven bírja a natív 4K-t ott a régi DSR-t használom (4×). Ha egy adott játékban nincs DLSS támogatás, de van bőven GPU tartalék, akkor ott natív 1620p felbontáson tolom.
    Rise of the Tomb Raider-nél a DLSS egy hatalmas áldás, mert ott brutális mértékű shimmering volt eddig, abban a játékban volt eddig a leglátványosabb a DLSS nyújtotta képminőség javulás.
    Shadow of the Tomb Raider-nél a DLSS és XeSS flickeringet okoz néhány vízfelületen, sajnos a játék oldalán ezt soha nem javították és valószínűleg nem is fogják, mondjuk a 3.7-es DLSS-el még nem próbáltam, de a 3.5-el is volt flickering, emiatt a játék saját SMAAT2x algoritmusa jobb, csak az ugye natív AA.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz M@trixfan #43623 üzenetére

    Nem. DLAA támogatást külön be kell építeni, mert a DLSS upscaling, míg a DLAA natív felbontáson működik (nincs upscaling). Igaz, ugyanazt az élsimítást használják, de mivel más a kettő célja, így a DLAA nem része a DLSS-nek. A kettő tehát külön beépítendő technológia.
    Egyébként azon játékoknál, ahol nincs DLAA, de van bőséges GPU tartalék, érdemes a DLDSR-t használni.

    Ha jól tudom az Intel csinálta azt az XeSS-nél, hogy az 1.3-as verziótól már automatikusan a "csomag" része a Native mód is.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    "DLSS is the best denoiser I have ever tried, and it's not even a denoiser! Raw path traced samples are sent directly to DLSS in DLAA mode for AI-based accumulation. There's a little bit of ghosting at times, but overall very impressive."

    Forrás.

    A DLAA is úgy tűnik túl jó lett, még denoiser-nek is jó, pedig nem arra tervezték. :)

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz b. #43602 üzenetére

    Ezt nem venném még készpénznek, viszont amit már annak lehet venni, hogy az MSRP tovább fog nőni.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    RTX 4060 ára lement 300 dollár alá külföldön:

    GeForce RTX 4060 is now available for $279

    Kíváncsiságból megnéztem az aktuális legolcsóbb kínálatot itthon, a legolcsóbb RTX 4060, az egy ventis Inno3D jelen hsz írása pillanatában 121 ezer pénzért vihető haza. Kezd egyre barátibb ára lenni a 4060-as szériának.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz b. #43513 üzenetére

    Erre kíváncsi leszek, hogy a gyakorlatban mit fog tudni, mármint ezzel mit tudnak nyerni a játékfejlesztők, az mindenképp dicséretes és egyben ígéretes, hogy nyílt forráskódú és van benne szabványos mód is.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz Raymond #43461 üzenetére

    "Black Myth: Wukong launches August 20th"

    Ha nem fog csúszni. Bár engem gameplay és content szempontból a legkisebb mértékben sem érdekel a játék, de kíváncsi vagyok milyen lesz látvány és performance szempontból.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    NVIDIA discontinues GeForce GTX 16 GPUs, the end of GTX series

    Vége a GTX 16xx-as szériának és ezzel a GTX márkanév végleg ki fog halni pár hónapon belül. A gyártás leállt, a készlet erejéig kapható ez a sorozat.

    Érdekesség, hogy a GTX, int széria/generáció jelölésként 2008-ban indult a 200-as szériával (GTX 260, 280 stb). Ugyanakkor már a 7-es sorozatban létezett 7900-asnak is egy GTX változata (2006), de az inkább csak egy típusjelölés volt akkor nem szériajelölés. Természetesen a 8-as és 9-es szériában is volt GTX, 1-1 típusnál (8800 GTX, 9800 GTX).

    [ Szerkesztve ]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz Busterftw #43248 üzenetére

    Ez jó hír, már csak reménykedni tudok abban, hogy a Shadowplay-t is masszívan javítják, mert jelenleg egy katasztrófa.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    Gainward RTX 3050 6 GB Pegasus - TPU Teszt

    Tökéletesen összhangban van a CB méréseivel. A GTX 1060 és 1660Ti közé ékelődik be, viszont a legenergiahatékonyabb Ampere kártya lett. Ezen felül a Gainward Pegasus tökéletesen bebizonyította, hogy 70 Watthoz bőven elegendő egyetlen ventilátor, ez a hűtő teljes terhelés alatt is néma marad, miközben 64 fokig melegedett a GPU, azaz röhögve lehűti a 70 Wattot, miközben az egész nagyon pici. Ez a Pegasus nagyon cuki lett ( :DDD ), szerintem kiváló custom design.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz gbors #43205 üzenetére

    Ezt a tesztet még nem láttam, köszi! Bár workstation, így nem tudom, hogy az ahhoz tartozó driverben ugyanúgy benne vannak-e a specifikus játékoptimalizálások, de a sebesség így is döbbenetesen magas, messze túlszárnyalja az elvárásomat.
    Döbbenetes milyen nagy szakadék van Ampere és Ada között energiahatékonyság szempontból. Én eredetileg RTX 2060 tempóra tippeltem, de a 3060/3060Ti tempó döbbenetes 70 Wattból. Remélem lesz ebből majd konzumer változat is, nyilván idén biztosan nem, de az RTX 5000 széria megjelenése után egy ilyennel le lehetne majd váltani a 6 GB-os 3050-et, az pedig egy hatalmas sebességugrást hozna abban a kategóriában. Addigra talán a TSMC 5nm gyártósor is olcsóbb lesz annyival, hogy megérje lehozni konzumer szintre is.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    válasz Raymond #43203 üzenetére

    Én értelemszerűen konzumer Geforce kártyára gondoltam, nem egy 700.000 Ft-os Workstation kártyára, azt hittem a szövegkörnyezetből ez evidens volt.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

Új hozzászólás Aktív témák