Keresés

Új hozzászólás Aktív témák

  • kwzatz

    őstag

    válasz opr #44 üzenetére

    "Jelenlegi legjobb vetel ar-ertekben maradt az, ami eddig is volt, FHD-t celozva, a teljes piacot nezve: A 6700XT"
    Mi a bánatért céloz valaki FHD-t a 6700XT-vel? RT nélkül bármiben elég 1440p high/ultra/60fps-re...

  • kwzatz

    őstag

    válasz opr #51 üzenetére

    "Mert gondol a jovore is. "
    A future-proofing a legostobább közhely, ami máig tartja magát. Hatalmas volt olvasni azokat, akik tavaly, meg tavalyelőtt vettek inkább kicsit erősebb cuccot (+100k sok esetben az egy kategóriával gyengébbhez képest), me' "fjúcsörprúf", most meg fél-, harmadáron lehet megvenni egy kicsivel jobb teljesítményt. :D
    Aminek értelme van: Legjobb ár-érték arányú cuccot venni arra, amire jelenleg használni akarod.

    "AAA jatekokkal akar jatszani,"
    Elnézve a mai AAA játékokat ehhez mazochistának kell lenni. :D Ettől függetlenül egyébként, amit írtam, az 1440p high/ultra/60fps, AAA játékokra értendő. Régebbi cuccokban, kevésbé gépigényes A, AA játékokban akár a 4k is simán mehet vele. Ez meg 3 év múlva sem lesz másképp, lehet, hogy néhány AAA-ban majd vissza kell venned 1-gyel az árnyékot, meg még 1-2 egyébként semmin nem változtató beállítást, és tökéletesen futni fog. Mostanában nézegetem ezt 1-2 játékban, a beállítások fele akkora scam, mint a ház. Néha több GB VRAM vagy +30-50% fps különbség és abszolút NULLA látványbeli differencia.

    "Tehat 8GB felejtos"
    1080p-re simán elég lesz 3 év múlva is. Semmi nem fog változni ezen a konzolgeneráción belül.

    "Es az alapjan, amik most a trendek"
    Ha valakinek az a hobby-ja, hogy a megjelenés napján akar igénytelen trágya AAA portokkal játszani, annak természetesen többet kell fizetni nem csak a játékért, hanem a hardverért is annak érdekében, hogy élvezhető sebességgel tudjon bétatesztelni. Amit a fentiekben írtam, az a gondolkodni is képes egyénekre értendő. :D

    [ Szerkesztve ]

  • kwzatz

    őstag

    válasz gbors #55 üzenetére

    Akkor írja hozzá, mert így félrevezető. Ha nem írja, akkor még mindig 60fps, RT nélkül a standard. Vagy írhatná azt is, hogy 720p-re, és a többieknek meg ki kellene találni, hogy 240fps+RT-t ért alatta?
    Egyébként mint kiderült a "jövőre gondol".

    Kansas:
    Persze, simán lehet egy csomó mindenben, de még sok újabb, látványos cuccban is. Valahogy az emberek nyelvezete tökéletesen idomult mára a marketinghez, így a "nem elég 1440p-re" vagy "nem elég a 8GB VRAM" stb. kijelentések mindig olyasmit jelentenek, hogy a megjelenés napján, a legszélsőségesebb beállításoknál,a legoptimalizálatlanabb trágya játékban, amivel akkor sem játszanék, ha fizetnének érte, már nincs meg a 90 fps 1% low. :D

    [ Szerkesztve ]

  • kwzatz

    őstag

    válasz gbors #60 üzenetére

    "a 60 FPS régóta nem standard már"
    Ha ezt állítod, hogy már nem a 60fps, akkor ez nyilván azt jelenti, hogy más a standard. Szóval szerinted mi az, amihez általánosságban mérik az elvárásokat?

    Nem arról van szó, hogy egyéneknek ne lehetne más, attól általánosságban szerintem még mindig ez. És nem csak PC-n, gyakorlatilag konzolon is. De kicsit úgy érzem, hogy megint valami általam magától értetődőnek vélt dologról kezdek vitába.

  • kwzatz

    őstag

    válasz opr #63 üzenetére

    "1) Nem tartom kifejezetten intelligens otletnek azt, hogy a teljesen abnormalis, remelehtoleg eletben egyszeri, idiota banyaszlaz-cryptoboom araival peldalozzunk."
    Már legalább kétszeri volt (2017), de szerintem sem lesz már ehhez hasonló így, hogy kiesett az ETH az egyenletből. Ettől függetlenül nem látom értelmét annak, hogy olyan teljesítményért fizetsz pluszban, amit jelenleg nem használsz, egy olyan termék esetén, amiből addigra, amire használnád a maximális teljesítményét, már olcsóbban vehetsz - normál körülményeket feltételezve - ugyanolyan teljesítményűt. A tavalyi, tavalyelőtti példát azért hoztam fel, mert ott jött ki leglátványosabban ennek a gondolkodásmódnak a hibája. :D

    "Ennek a kijelentesnek ellent mond a teny, hogy mar konkretan most se igaz. Egyelore keves az a jatek, ami tobbet igenyel, de mar ma is van ilyen."
    Nézd meg a Last of Us-t, pár patch és 1,5GB-tal kisebb VRAM igény, amiért részletesebb textúrákat látsz, volt róla Hardware Unboxed videó is. Amit látsz ennél a pár játéknál, az nem egy "valódi nagyobb VRAM-igény", amit látsz is a képminőségen. Egyszerűen minősíthetetlen állapotban lettek kiadva.
    Ez olyan, hogy 24GB VRAM-ot is ki tudnának iktatni 1080p-ben is, más kérdés, hogy semmi értelme nem lenne.
    De egyébként pont erről írtam, ez hogy "vannak ilyenek" (igen, elcseszett portok, megjelenés napján, totál indokolatlan gépigénnyel, játszhatatlan állapotban) az irreleváns, ha racionálisan állsz hozzá.

    [ Szerkesztve ]

  • kwzatz

    őstag

    válasz opr #69 üzenetére

    Semmi ilyet nem állítottam. Egyszerűen nem értettem, hogy a 6700XT miért FHD kártya. :D Egyébként nem igazán ugyanaz az ár, mert jelenleg a mostani cikk tárgyához hasonló teljesítményű 8GB-os RX 6650XT 113k, míg egy 6700XT 153k. Nem mondom, hogy nem lenne érdemes leszurkolni érte a +40k-t, de azért az is erős, hogy "minimális felárnak" nevezzük. 140-150k felett semmiképpen nem ajánlanék 8GB-os kártyát én sem.

    A RX 7600 és a 4060 Ti új termékek, ilyenkor mindig van megjelenéskor egy kis extra haszon pakolva rájuk. Pár hónap múlva majd változik.

    Egyébként ha már árak... Valósnak tartom a veszélyt, hogy a dollár erősödni fog újra, aztán 1 év múlva nem lehetetlen, hogy megint lesz sírás az árak miatt (is). Ha tippelnem kellene, azt mondanám, hogy a következő 3-6 hónapon belül lehet majd a legjobb ár/érték arányú kártyákhoz jutni. Legalábbis egy időre. Aztán majd kiderül.

    [ Szerkesztve ]

  • kwzatz

    őstag

    válasz opr #71 üzenetére

    Így abszolút egyetértek. Én személy szerint nem annyira rajongok a használt kártyákért (főleg egy bányaláz utáni időszakban), de biztos ki lehet fogni jókat. Ráadásul ahogy halad az idő és távolabb kerülünk 2021-től, egyre inkább.

    Franklin: 1440p low/150fps-re is elég :D De persze, tudom, hogy vannak másfajta igények is, csak arra utaltam, hogy ezzel a kártyával simán lehet feljebb is célozni felbontásban.

    gbors: A standardot úgy értem, hogy mint mérce, amit a legtöbb ember elvár és amivel már megelégszik, ha a hardverén tudja produkálni az adott játék. A fenti kontextusban ezt feltételezi az ember. De szerintem már túltárgyaljuk. Képzeld el úgy, hogy valaki azt mondja "Elég 1440p-re." Mit feltételezel, mire gondol, ha nem ismered? Úgy is mondhatnám, hogy a 60 fps a Schelling point. :D

    [ Szerkesztve ]

  • kwzatz

    őstag

    válasz Sinesol #162 üzenetére

    Szerintem ez a mostani AI bubble teteje és közel a crash. Viszont az AI lehetséges jövőjét nézve, nem lepődnék meg, ha 10-20 éven belül az Nvidia lenne a legnagyobb cég a világon. Még az is lehet, hogy hamarabb.

  • kwzatz

    őstag

    válasz hajbel #301 üzenetére

    És akkor vannak, akik ilyen szövegeket nyomnak itt a fórumon, hogy "nem lehet örökké az optimalizálatlanságra fogni a dolgot, egyszerűen ezekhez a játékokhoz már kevés a kártya/VRAM". LOL.
    Ez jól jelzi, hogy mi lehetséges, mit lehet(ne) kihozni a hardverből. És ha a 6700 ilyen teljesítményre képes, akkor mit kellene tudnia hasonló optimalizáció mellett a 6800-nak vagy 6950-nek?
    Feltéve, hogy nincs valami hiba a tesztelésben, persze. De az gyorsan kiderülne.

    [ Szerkesztve ]

  • kwzatz

    őstag

    válasz hajbel #322 üzenetére

    Persze, szerintem alapvetően fixen azzal a mentalitással készülnek már a nagyobb játékok, hogy a tesztelési fázis végét lecsípik költségcsökkentés címén és kiadják bétatesztre a népnek. Valahol ördögi kör, mert így meg a mai információáramlás mellett lemondanak egy csomó vevőről, aki látván a review-kat egyre óvatosabb. (valamelyik nap olvastam is, hogy rosszak is voltak az eladások, ahhoz képest meg főleg, hogy ez az egyik legnagyobb PS cím)
    Mondjuk a Last of Us-nál az a gáz, hogy ez egy kész játék, amit csak portolni kellett.

    És hát összességében ugyanezen okok miatt nem lehet leszűrni a játékok megjelenéskori állapotából azt a tanulságot, hogy "xy hardver már kevés", max. annyit, hogy "xy hardver már kevés ahhoz, hogy Day 1 futtasson zéró optimalizációval megáldott, bugos, trágya játékokat".

    [ Szerkesztve ]

  • kwzatz

    őstag

    válasz Dilikutya #326 üzenetére

    A "brainstormingold a sztorit, írd meg, szinkronszínészeket dobj hozzá, engine/programozás része meglegyen, hangeffekteket vegyétek fel, finomhangold millió elemét stb." + portolni kell dologhoz képest azért visszafogott. Nyilván ez is sok munka és pénz, de töredéke annak, amit egy új játék készítése jelent. Nem véletlenül dobálják most tonnaszámra a portokat, remastereket, remake-eket ebben a "spórolós" időszakban. Egy új játékhoz képest a költség/idő a töredéke.

  • kwzatz

    őstag

    válasz hajbel #346 üzenetére

    Tapasztalatom szerint ez max. akkor igaz 1080p-ben, ha valaki kényszert érez a parasztvakításon túl másra nem alkalmas beállításokat is "ulthrhára" tenni, és kötelező jelleggel szívatja magát halálra azzal, hogy Day 1 játszik optimalizálatlannál optimalizálatlanabb AAA hulladékokkal, amik még mindig nem néznek ki jobban, mint a 8 éves Arkham Knight. :D

    Jó eséllyel meg az esetek 99%-ban némi agyat is használva a grafikai beállításoknál látványkülönbség nélkül belefér 6-ba is az ember.

  • kwzatz

    őstag

    válasz Pug #348 üzenetére

    Nem mindenkinek. Kifejezetten kiemeltem, hogy kik fognak kifutni belőle. Ha ebbe a rétegbe tartozol, akkor neked kell a több VRAM, nincs ezzel gond. ;]

    Nézem ezeket a showcase-eket is, hogy lássam a sok UE5 játékot, amit folyton emlegettek a topic-okban és ami eszi majd a VRAM-ot... aztán valahogy egy sem bukkan fel. A tegnapi Summer Game Fest is mekkora fail volt, te jó ég. :D
    Tényleg, mondjatok már példákat, miben nem elég? A Forspokenben annak a 3 embernek, aki megvette? :D

    [ Szerkesztve ]

  • kwzatz

    őstag

    válasz hajbel #350 üzenetére

    Én javaslok hülyeséget? Amikor valaki beírja, hogy egy 80 ezres kártya 8GB VRAM-mal lehet, hogy megérősebb lenne neki, aztán nagy bölcsen azt mondod, hogy "de a 145 ezres kártyát érdemesebb". No shit Sherlock! :D

    Konkretizáljuk már ezt az "ezekkelt" légy szíves, nagyon kerülitek valahogy a konkrétumokat. Pl. a Last of Us-t kipróbáltam a 8GB VRAM sírás miatt (ingyen volt ugyan, de egyelőre arra nem vetemednék, hogy játsszak vele, míg helyre nem hozzák), és ultrán sem fut ki a 8GB-ból. Ráadásképpen a retek, elmosott TAA miatt az a vicces helyzet áll elő benne, hogy Quality FSR-el szebb, élesebb +20-30%-nyi fps-ért. Van benne beállítás, ami ultrán rondább, mint high-on, valamint instant kilövöm a motion blurt és a depth of field, mert hánynom kell tőle. Ti ezekből indultok ki.
    Mi az a 3, amihez nem elég a 8GB? Linkeljél már képet belőlük ultra beállításról, meg olyan beállításról, amivel már beférsz a 8GB-ba. Megnézném. :D

    De már az önmagában milyen vicces érv, hogy:
    "Mindenkinek kell több vram, mert egyre optimalizálatlanabbak a játékok és határos időn belül nem lesz elég a 8gb."
    Nem vazze, nem kell pénzzel díjazni a szart, és akkor majd jobban összeszedik magukat a cégek, nem használnak agyhalott bétateszternek megjelenés után fél évig.

    Pug: Nézzél már utána ezeknek a patchek után. Írtam, ha Day 1 szenvedsz a trágyával, akkor lehet gond. :D A Hogwarts meg extrém vicces, Xbox Series S-en belefér össz-vissz 8GB-ba, PC-n meg kell neki 15-16GB RAM, meg még ki tudja mennyi VRAM 720p low-on is. Jó port. :D

    [ Szerkesztve ]

  • kwzatz

    őstag

    válasz Yutani #353 üzenetére

    Persze. Onnan indult, hogy a 3070 (és a 3060 Ti is idevehető lassacskán) nem éri meg a 8GB VRAM miatt, amivel totál egyet is értek, drágább kártyákon legyen több. Innen eljutott a dolog oda, hogy már a 80 ezres 8GB VRAM-os kártyát sem ajánlják 1080p-re, vegyen mindenki inkább 150k-ért 12GB-osat.

    Azon már túl is lépek, hogy mindezt úgy teszik, hogy meg sem kérdezik az illetőt, hogy egyáltalán mivel játszik. :D Nem, van 3 port, amivel akkor sem játszanának legtöbben, ha fizetnének érte nekik, ami Day 1 kifutott 8GB-ból ultrán, ezért semmilyen 8GB VRAM-os kártyát nem érdemes már venni. Hatalmas. :D

    [ Szerkesztve ]

  • kwzatz

    őstag

    válasz hajbel #356 üzenetére

    "Attól még, hogy kicseszel magaddal és széllel szemben brunyálsz,"
    Mivel cseszek ki magammal? Hogy nem bugos, félkész okádékokkal játszok Day 1 60-70€-ért? :D

    "Ebből kifolyólag az egyre nagyobb projekteket úgy kell managelni, hogy minél nagyobb eladás legyen belőle, stagnáló anyagi ráfordítással."
    És ezek hol vannak? Ezek a nagy projektek? Az utolsó 5 évben gyakorlatilag totális stagnálás van és nem csak ráfordításban. Megpróbálják bruteforce-olni a látványt, aztán mégsem képesek azt a szintet elérni, amit néhány 2015-2017-es játék. Semmit nem ér a "részletes textúra", ha egyszerűen egy undormány a látványtervezés, és egy nulla a művészi megvalósítás. Az AAA játékoknak szinte ez volt az egyetlen előnye az indie game-ekhez képest, játékmenetben a legtöbb halál unalmas, de most itt is egyre nagyobb a reccsenés. Egyre több tehetség, az igazi vizionáriusok mára kikoptak, egyre lelketlenebb irányba halad a dolog. Egy nyomorult trailert nem képesek érzékkel összerakni. :D Mondom velem van a baj, kiöregedtem ebből? Aztán megnéztem 5-10 éves trailereket és nem, most is ugyanolyan ütősek, látványosak, atmoszférikusak, mondanak valamit, kiváltanak valamit belőled.

    Elküldéseket, beszántott cégeket, felvásárlásokat fogunk látni továbbra is, mert megvolt a "csúcs". Miért halasztanak, kaszálnak ennyi játékot mostanában, miért jelenik meg szinte minden szar állapotban? Fenntarthatatlan a dolog, és nem attól az iránytól lesznek jobbak a játékok, amit erőltetnek.

    És nem is kell a 8 éves Arkham Knight, a 10 éves Bioshock Infinite is szebb, minden technikai hátránya ellenére, mint a szürke, egyhangú, halálunalmas Forspoken, és még 2GB VRAM-ba is belefér 4k-n. :D

  • kwzatz

    őstag

    válasz hajbel #359 üzenetére

    "Ráadásul kitűnő közgazdász is vagy."
    Amúgy igen. Oops. :)

    "Bocs, nem voltam tisztában azzal, hogy jobban értesz a fejlesztéshez, mint a Planet Taxi megalapítója, Phelan."
    Amit írtál, és amit Phelan mondott az nem cáfolja és nem erősíti egyikünk álláspontját sem.
    Mihez kell több VRAM, hol, miben, milyen felbontáson, milyen látványbeli különbség mellett? Nyomorult 10+ éves moddolt Skyrimmel is le lehet gyilkolni 16GB VRAM-ot, akkor már az sem elég? Ez a "van már", meg "majd jönnek" kijelentések, ezek nem érvek, semmit nem érő lózungok.

    Engem nem az érdekel, hogy mit mutat a grafikáról egy szubjektív "medium", "high", "ultra" felirat, amit a fejlesztők éppen adtak neki, engem az érdekel, hogy mit látok.
    Kb. 10-15 éve nem olyan volt a különbség a beállítások között mint ma, de az a vicces, hogy a teljesítményre gyakorolt hatásuk ennek ellenére lehet, hogy kisebb volt sokszor. :D
    Ha már említetted a Hardware Unboxedet, akkor ajánlom az 1 éves videóikat, aminek konkrétan ilyen címei vannak, hogy "Ultra Quality Settings Are Dumb".

    Miért nem írod még mindig azt a 3 játékot? Miért nem látom sehol az összehasonlító képeket, amikor előkerül ez a téma, hogy "látjátok, ilyen az ultra mondjuk a mediumhoz, high-hoz képest, ezt jelenti a kompromisszum"?
    Azért mert egy vicc. Egy önámítás. Mert látom, hogy így van, mert tengernyi játékban megnéztem. A különbség lepkefingnyi, miközben két kategóriával gyengébb kártyán is fut akár ugyanúgy a cucc, optimalizált beállításokkal. :D Ráadásul sokaknak minden esetben megváltás is, mert pl. nem kell az ultra szerves részét képező motion blurtól meg depth of fieldtől hányniuk. :D

    Pikari: Persze, vannak jó játékok AAA-k között is, nem kérdés. Sturgeon törvénye mindig is működött, csak valahogy már 90%-tól is tolódik még inkább felfelé az utóbbi időben. :D Viszont mennyiségileg sokkal több a jó játék is, abból adódóan, hogy eleve játék sokkal több készül.

    [ Szerkesztve ]

  • kwzatz

    őstag

    válasz laposonly11 #364 üzenetére

    Köszönöm. Nagyon meggyőző a "8GB nem elég 1080p-re" vitában egy vadiúj játékról linkelt 1440p-s max. graf-os kép raytracinggel(!), meg 1440p ultra videók pont ezekben a nevetségesen gané új megjelenésekben, amiről beszéltem. De még az RE4-nél is "Prioritize Graphics" setting, és elég a 8GB még 1440p-re is. Ebben is említik amúgy a Hardware Unboxed "Ultra settings are dumb" videót. :D

    És high-on már nincs is különbség még 1440p-ben(!) sem a Last of Us-ban 8 és 16 között, nem hogy 1080p-ben. És az pont az játék, amiben még tovább is mennék, mert be lehet úgy állítani, hogy szebb legyen, mint a high preset (valamicskével, mert hát mint mondtam, majdhogynem nulla a különbség) és jobban fusson. Azt is említi, hogy 16GB-nál is van textúraprobléma. Jó port. :D Cyberpunkban 1440p-ben sem fut ki RT Overdrive mellett.

    Összességében köszi. Abból, hogy azt akartad bizonyítani, hogy a 8GB nem elég 1080p-re, a videó azt sugallja, hogy simán jó még 1440p-re is a legújabb címekben is akár. :D De vicces amúgy megint az "elemző" videó a szokásos hiánnyal, hogy nem mutatja be lényegretörően hogy egyáltalán mekkora a látványbeli különbség. Mert a videón is megint azt látszik, hogy.... semmi. :D

    De mindegy, elengedem. Úgysem jut túl ez a dolog nálatok azon, hogy " de ulthrah 3 jhátékhban". :D Mindenki más levonhatja a konklúziót.

    [ Szerkesztve ]

  • kwzatz

    őstag

    válasz laposonly11 #378 üzenetére

    A Hogwarts Legacy egy trágya. Írtam fentebb, 720p low-on is 16GB RAM-ot és 6GB VRAM-ot zabál, míg Xbox Series S-en van mindenre 10GB, és talán kb. 900p medium környéke lehet 60 fps-sel... A szubjektív része, hogy ez pl. egyik azoknak a játékoknak, amivel akkor sem játszanék, ha jó órabért fizetnének érte, de kinek mi.
    Neked úgy fest egyébként, hogy ennél a játéknál indokoltak az igények a látvány alapján? Nézz már mellé egy Cyberpunkot vagy egy RDR2-t. :D

    "meg jönnek pl. az Unreal 5 ös játékok is"
    Nah, megint az Unreal 5-ös játékok. És mik ezek? Hol, mikor, melyik? :D Inkább az Unreal 4-esek se jöttek volna, sok stutteres szar a legtöbb, még akkor is, ha a felét sem használja a VRAM-nak. Tisztelet a kivételnek.

    Az a helyzet, hogy a videó azt cáfolta, amit bizonyítani szerettél volna. Én annyit mondtam, hogy 1080p-re simán elég a 8GB VRAM. Te meg linkeled az 1440p ultra + raytracing videót ellenérvként. :D

    A Forspoken is jó. Ha ilyenekkel játszotok, akkor nektek úgyis mindegy. A jó játékokra való igényt kellene először növelni inkább, nem a grafikai részletességre valót. Bár ezeknél az sincs, csak gépigény. :D

    [ Szerkesztve ]

  • kwzatz

    őstag

    A legsokkolóbbat is elárulom, mert már Nvidia fanboyozás is ment... A Geforce 3 Ti 200 volt az utolsó Nvidia kártyám talán...

    hobizoli: Nem érdemes. Azt sem tudja mi mellett vagy ellen érvel, és valószínűleg a videót sem nézte végig, ha pont ezt hozta fel példának.

    [ Szerkesztve ]

  • kwzatz

    őstag

    válasz laposonly11 #387 üzenetére

    "szíp a gyáték, natyon szíp...hotdokkal, Kóúlával, mög csipszöl je"
    A kommentjeid alapján ez inkább te lehetsz. Ezek közül én egyikkel sem élek. :D

    "mindjárt látja a pixeleket és az ordító különbséget 1080p és 1440p között"
    Jah főleg ha 21 colos az 1080p monitor és 27 colos az 1440p monitor szinte azonos DPI-vel. Az a legnagyobb. De valószínűleg azt sem tudod, miről beszélek.

    "az ordító különbséget 1080p és 1440p között főleg ha FSR/DLSS működik és az előbbi felbontáson, ez durván elmosódott képet jelent"
    Javaslom kukkantsd meg a Last of Us-ban. :D Meglepő megtapasztalás lesz az FSR az elmosott szar "ulthra" natív TAA után. :D

    "Persze ne vegyél új kártyát se, majd Unreal 5 alatt megelégszel 720p medium textúrákkal hehe."
    Példát még mindig nem sikerült írni valahogy. Viszont érzek legalább 15 év és 50 IQ-nyi különbséget rád nézve negatív irányban, úgyhogy tényleg elengedem mára. :D

    [ Szerkesztve ]

  • kwzatz

    őstag

    válasz hajbel #394 üzenetére

    "Végre egy értelmes hozzászólás. Egyet is értek"
    Omegalul. "Egyet is értek", mikor ezen vitatkoztál velem 50 hsz-en keresztül. Írtam, hogy 1080p-re elég 8GB VRAM, egyből azzal nyitottál, hogy ne javasoljak hülyeséget. :D
    Kiemeltem (mások szintén), hogy a 80 ezres 6600-ról írok, meg a 6650XT-ről, hogy a 3070 nem éri meg, mert drága kártyán legyen több, és toltátok egyfolytában ugyanazt. Most meg már logikus, meg "ha ekkora ár/érték" különbség van.
    Ilyeneket írtam:
    "Én javaslok hülyeséget? Amikor valaki beírja, hogy egy 80 ezres kártya 8GB VRAM-mal lehet, hogy megérősebb lenne neki, aztán nagy bölcsen azt mondod, hogy "de a 145 ezres kártyát érdemesebb". No shit Sherlock!"
    "Persze. Onnan indult, hogy a 3070 (és a 3060 Ti is idevehető lassacskán) nem éri meg a 8GB VRAM miatt, amivel totál egyet is értek, drágább kártyákon legyen több. Innen eljutott a dolog oda, hogy már a 80 ezres 8GB VRAM-os kártyát sem ajánlják 1080p-re, vegyen mindenki inkább 150k-ért 12GB-osat."

    Lehet az a legnagyobb gond, mint ami általában lenni szokott. Az értő olvasás hiánya, vagy csak hogy önmagában a vitatkozásért vitatkozz esetleg egyszerűen egy troll vagy. Aztán másnap már úgy ébredsz, hogy "jah, logikus".
    Elképesztő, és erre pazarlok időt.

    [ Szerkesztve ]

  • kwzatz

    őstag

    válasz hajbel #396 üzenetére

    1. Ezt írtad pontosan:
    "Mindenkinek kell több vram, mert egyre optimalizálatlanabbak a játékok és határos időn belül nem lesz elég a 8gb. Az utóbbi fél évben megjelent 3 játék, amihez nem elég már a 8gb. Attól még, hogy ezekkel nem játszol, ne javasolj hülyeséget másoknak, légyszi!"

    Ez a gyökeres ellentéte annak, amit most tolsz, hogy "ha jó az ár/érték", mert itt még kategorikusan azt mondtad, hogy nem elég 8GB, illetve nem sokára nem lesz elég, és kifejezetten hülyeséget mond, aki mást állít. Szerintem meg ez hülyeség és félrevezető, totálisan. Azóta sem jött értelmes példa arra, hogy mire nem elég 1080p-ben, milyen "kompromisszumot" kell vállalni. Csak a másik arc jött az 1440p ultra raytracing videókkal. :D

    2. Az ultra parasztvakítás, mindegy mit hiszel. Elvileg a Hardware Unboxed videókat szereted, javasolták már többen (én is) az "Ultra settings are dumb" videójukat. Írtam már azt is, hogy az ultra önmagában eleve tartalmaz olyat, mint a Motion Blur, ami sokaknak kifejezetten negatív. Akkor miért mérvadó? Vagy nem tudom... Csináld azt, amit én, hogy... kipróbálod? :D Kértem, hogy ugyan mutasson már valaki képet/videót/bármit arról az őrületes különbségről 1080p-ben, ahol az ultrához 8GB-nál több kell, és olyan óriási különbség van ahhoz az optimális beállításhoz képest, amihez a 8GB még éppen elég. Azóta sem jön, nem is fog. Mert nincs. :D Kínlódhattok itt napokig, amíg ilyen nincs, addig csak agyatlan sírás. Ez lenne az érv. De erre még 1 játékot sem tudtok összevakarni 10-en sem a topic-ban. :D

    3. A 8 éves Arkham Knight meg még mindig FÉNYÉVEKRE van látványban (is) pl. a retek Forspokentől pl. töredéke gépigénnyel. Művészet, tehetség > nyers erő. Ha ezt nem látod, akkor nem tudom, hogy az ultra-high között hogy látod azt a "fenenagy" különbséget bármiben. :D
    "hogy a 12 gigás kártya csak parasztvakításra jó"
    Ez meg szalmabáb, hasonlót sem írtam, de hát így kell "vitatkozni", ha a másik érveire nem nagyon van opciód.
    Emellett mást sem csinálok, mint példákkal, számokkal (a videókból) támasztom alá a véleményem. Szemben veletek, akik zéró példát tudtok felhozni, ami az állítást (1080p-re nem elég 8GB) alátámasztaná.
    Nem fárasztom magam tovább, ezen a ponton már nevetségessé váltál.

    [ Szerkesztve ]

  • kwzatz

    őstag

    válasz paprobert #398 üzenetére

    Ez nem lerövidítés, hanem egy teljesen más diskurzus. :D
    1. Ez azért így elég masszívan elnagyolt, de már bele sem kezdek.
    2. Nem fog. A sokat emlegetett UE5 játékok? :D Mennek orrba-szájba a showcase-ek, és szinte lószar sem jön, aminél ezt indokoltnak látnám 2 éven belül. Már-már kínos, hogy mennyire gyér a felhozatal.
    3. 269$ az MSRP, nálunk is csökkent már azóta is az ár, ráadásul a 6650XT 8GB még mindig jobban megéri. Soha nem a 7600 mellett kardoskodtam, 1080p 8GB VRAM volt a téma.

    Egyre biztosabb vagyok benne, hogy a bottom környékén járunk, mert mindenki kezd kicsit "kapzsi" lenni, és úgy érzem, megint lesz sírás, amikor a dollár megint elkezd erősödni, vagy az AI téma miatt megint "chiphiányt" kiáltanak. :D
    Félelmetes látni, hogy a teljesítmény, ami tavaly/tavalyelőtt háromszoros áron még "megérte, mer' má' mindhig ennyhi leszh", (és akkor azért hülyéztek még le, mert azt mertem mondani, hogy jönni fog egy rohadt nagy korrekció a kriptó téma után, így érdemesebb várni) az a teljesítmény most 98k-ért ajándék RE4-gyel már gáz, mert csak 8GB VRAM. És hát az már 1080p-re sem jó.
    Ha abból indulunk ki, hogy a tömeg mindig téved, és milyen álláspontont van most a tömeg... :U

    Összefoglalva: Ha valaki 1440p-n szeretne játszani és nem gond 150k (és a gyérebb hűtés, mert más csak drágábban van, ahogy nézem), akkor 6700XT. Ha 1080p-n szeretne játszani és nem szeretne annyit költeni, 6650XT vagy 7600, amikor esik még kicsit az ára 100 környékén. Bőven jónak fogja érezni, aki RX 570/580 vagy 1060 környékéről (esetleg lejjebb) vált. Más meg nem nagyon van ilyen ár/érték aránnyal. Változhat még pozitív irányba valamicskét (amikor jön a 7600XT, 7700 stb.), de lehet, hogy lassacskán pár hónapon belül újra negatívba fog, mindenki mérje fel magának a kockázatot.

    Örültem a szerencsének.

  • kwzatz

    őstag

    válasz paprobert #401 üzenetére

    A "kapzsit" nem úgy értem. Teljesen jogos főleg az elmúlt két év után jobbat várni olcsóbban. De sajnos óhatatlanul is abba fog torkollni egyeséknél, hogy tovább vár, mint kellene. Érdemes racionálisan nézni, mert a végtelenségig nem fog csökkenni az ár. Még egy kicsi azért lehet benne. A raktárkészletek apadnak szépen már 1+ éve, az új gyártást meg a kereslethez igazítják, az is lehet, hogy beintenek és az AI vonalra fókuszálnak nagyobb erővel a cégek. Ha nincs túlkínálat miközben már a következő szériával kellene kijönni (ahogy most volt), akkor nem lesz nekik olyan problémás a helyzet, főleg ha van más piac is. Szóval mindenki addig érezze nyeregben magát, amíg ez tart. :D

    "2.5x szorzóval árult kártyák most 2x-es áron mennek,"
    2x-es áron már nem igazán, legalábbis az alsó-közép kategóriában. A forint gyengeségét nem fogják nullázni az 5 évvel ezelőtti állapothoz képest. 1-2 éve meg volt, hogy nem is 2,5x-es szorzóval mentek, hanem sok esetben inkább 4x.

    "Az RX7600-hoz visszatérve, ha te csak 2 évre előre számolsz, akkor zárójelbe lehet tenni a beszélgetést, addig elég lesz... valamire."
    1080p-re valódi(!) kompromisszum nélkül bármiben.(értsd, nem kell megállított képen 3x Zoom mellett 3 percig figyelni, hogy lásd a különbséget a fűszálak számában - mert általában ez a szint most ultra-high között a játékok többségében) Némi kompromisszummal tovább is.
    Ha azt is hozzávennénk, hogy ezen játékok 95%-a amúgy is érdemtelen lesz a rászánt időre is, akkor még jobb a helyzet, de ez már egyéni preferencia -sok esetben meg igénytelenség, manipulálhatóság, stb. - kérdése is, megint más téma.

    [ Szerkesztve ]

  • kwzatz

    őstag

    válasz hajbel #429 üzenetére

    "Nem hinném, hogy normális, hogy veszel egy kártyát 150K-ért és 1080p-ben és mediumra kell állítanod a textúrákat. Szerintem 100K-ért sem normális."

    Azt nem vagy képes többek között te sem felfogni, hogy egyetlen istenverte játék nem volt még így. Hol kell 1080p-ben mediumra állítani a textúrákat? :D Kötitek az ebet a karóhoz, továbbra is egyetlen példa nélkül és nem érzitek, hogy mennyire nevetséges. Olyan dolgot próbáltok bizonyítani totálisan konkrétumok hiányában, ami nem létezik. Valahol félelmetes, hogy valaki ilyen szinten legyen manipulálható. :D
    Arról ne is beszéljünk, hogy most megint szemenköpöd magad, és már megint nem jó a 100k-s 1080p kártya sem. Bár még az is féligazság, hogy 1080p kártya, mert címtől függően az elmúlt 3-4 évből gyakorlatilag 1080p-4k között játszhatsz vele, és nem csak indie game-ekkel. (pl. egy Fallen Order 1440p ultra 80 fps, csak hogy példát is írjak)

    Megint belinkelsz egy HUB videót (akik btw most olyan szinten sajtolják ki a 8GB VRAM témát a YT algoritmusból és a hozzád hasonló userekből, amennyire lehetséges) 3070-ről és 4070-ről, ami megint... teljesen irreleváns. Hogy jön ehhez a vitához a 3070 és a 4070? Megint. Tényleg ezt sem érzékeled? :D

    Hogy a realitások talaján is bemutassam azt az ostobaságot, ami mellett érveltek, itt egy 30 játékról készült videó (nem indie game-ek, vegyesen régi, új, népszerű címek, amivel az emberek 99,9%-a játszik) vegyes high-ultra -nem medium- 1080p arról, hogy mire elég egy 7600 (vagy egy 98k-s 6650XT):
    The AMD Radeon RX 7600 - 30 Games Tested at 1080p
    Hogwarts High 93 fps, Forza 5 ultra 130 fps, Halo Infinite High 110 fps, Spider-Man Remastered Very High 110 fps, Cyberpunk 2077 High 87 fps, Jedi Survivor High 70 fps stb. Legtöbben bőven megvan az ultra 60, ultra textúra simán mindenhol mehet.
    Amit a Hardware Unboxed mond, meg amit ti álmodtok, az két különböző dolog.

    Minden racionális egyénnek ajánlanám inkább a fenti 30 game-es videót, ha a realitást szeretné látni, hogy mivel hogy tud játszani jelenleg népszerű címekben.

  • kwzatz

    őstag

    válasz hajbel #443 üzenetére

    A címet és a HU-et látva instant kilőttem a videót. Angolul valszeg egy pöppet jobban tudok nálad. Tehát most nincs semmi, "de majd egyszer, mert azt mondták valakik". Azt sem sikerül felfogni, hogy már önmagában ez, hogy medium/high/ultra is semmitmondó egyébként, mert bármit takarhat. Lehet a medium olyan, hogy kineveti a Forspoken ultrát, miközben belefér 4-be. Lehet az ultra olyan, hogy 12-be sem fér be, de közben téged nevetnek ki, hogy ilyen játékra adsz pénzt, hogy bétateszteld fél évig. Láttam az elmúlt években, mi fér be 8-ba (4-6-ba). Ha olyan játékok jönnek, amik ezeket felülmúlják, és ezért kell több VRAM hozzájuk, akkor oké, majd maradok benne "medium" mellett, de akkor az legyen RDR2, Cyberpunk szint, mert ahhoz is elég volt. Vicces amúgy, mert soha nem az ilyen nüanszokon múlik, hogy mennyire élvezetes, jó a játék. Amíg a problémás játékok ilyen Forspoken szintűek, addig nyugodtan alszom. A diminishing return már most nagyon játszik, a művészi megvalósítás már sokkal többet nyom a latba. Ezért lehetnek 6-8 éves játékok szebbek harmadakkora gépigénnyel, mint új AA-AAA-k.

    [ Szerkesztve ]

  • kwzatz

    őstag

    válasz hajbel #450 üzenetére

    Még mindig nem jött példa, kép, videó, ami bizonyítaná azt, ami mellett érveltek. Senkitől. Továbbra sem meglepő. :U Linkeltem egy videót 30 játékról. A reakció csend. Ez sem meglepő. :U

    Egyelőre "pletyikkel" forgatnak titeket és vesznek rá arra, hogy többet költsetek, egészen véletlenül egy olyan időszakban, amikor a kártyaeladások a béka segge alatt vannak. A játékeladások is csökkenő tendenciát mutatnak, mert az emberek egyre nagyobb részének van már annyi esze az elmúlt évek után, hogy ne vegye meg a szart Day 1, főleg az egyre nehezebb általános gazdasági helyzet mellett. Helyette játszik a több száz/ezer játékból a backlogból patchelt, kész, 1-4 éves cuccokkal. Meg van, aki a Forspoken miatt vesz új kártyát. :D
    Úgyhogy nézegesd tovább a HU videókat. Jönni fog még sok a témában, a hozzád hasonlóaknak készítik, így működik az algó és a trend-jacking. :D Részemről zártam.

    [ Szerkesztve ]

  • kwzatz

    őstag

    válasz hajbel #462 üzenetére

    Így, hogy már másodszor kóstolgatsz ezzel meglehetősen ostoba módon: Kereskedelmi szakmai középfok, napi szinten 4-6 óra írás-olvasás, nem HU videók szintjén mozgó szövegekkel, gyakorlatilag bármilyen témában. Nagyobb a szókincsem angolul, mint neked magyarul...

    Tim és Steve fogalmatlan volt már tengernyi dologban, meg még lesz is, amiben ők jók, hogy szorgalmasan, részletesen tesztelnek. Tavaly-tavaly előtt amit "spekuláltak" kereslet, kínálat, árak kapcsán a kártyákról, azt közgazdászként sokszor kínos volt nézni. Most ráugrottak a clickbaitre, amit te zabálsz két pofára. Ehhez nem magyar vagy külföldi forrás kell, hanem annyi, hogy használod az agyad, és kipróbálsz játékokat. Ha benchmark csatornák alapján döntesz, ahol ultrán tesztelnek a megjelenés napján (az összehasonlíthatóság egyszerűsége kedvéért), miközben készítik az "Ultra settings are dumb" videókat fene vicces módon, akkor egy téves kép él majd benned. Ráadásul megint linkelsz másodiknak 3070 ray tracing videót. Itt már azért a szellemi képességeid miatt is aggódom. Tényleg nem érted, hogy a 3070-en miért gáz a 8GB? Az egy 180-200 ezres kártya. Ami elég jó lenne RT-ben, és 1440p-n is a teljesítménye alapján, de mind a felbontás, mind az RT plusz VRAM-ot igényel, így nem tudja betölteni a funkcióját teljesen. Ezért mondják, hogy most már inkább egy 1080p kártya (ami még így is túlzás), és ezért ismétled ezt te is papagájként. Egyrészt vicces, hogy azt bizonygatjátok, hogy a 3070 a 8GB VRAM miatt csak 1080p kártya, másrészt meg azt, hogy a 8GB VRAM nem elég 1080p-re sem. Ez a kognitív disszonancia is humoros, de titeket nem akadályoz. :D

    Szóval nem mindenki azon a szinten mozog, mint te, hogy "Ha YT videóban mondták, akkor az igaz és úgy van". Van aki továbbgondolja a dolgokat, teszteli, kipróbálja, aztán leszűri a tanulságot. Főleg ha más területen ebből él, hogy adatokat, statisztikákat, trendeket, emberi viselkedést elemezzen. Ha neked azért az a konklúzió, mert valaki azt mondta és nem azért, mert a tapasztalatod, elemzésed, számításaid stb. esetleg ugyanabba az irányba mutatnak, legyen bármi is a téma, akkor annak mindig meglesznek a hátulütői.

    "Steve ugye elmondta, hogy több fejlesztővel is beszélt és 1080p-re jönnek a 12 gigát zabáló játékok, sokak szerint a medium presetekre lesz elég csak a 12 giga."
    Mikor, melyik játékok? Most tolták orrba-szájba a showcase-eket az elmúlt 1-2 hétben és lószar sincs. Egyetlen olyan gameplay videó nem volt, ahol azt mondtam volna a grafikára, hogy "na, ez előremutató". Ezer oka van ennek, érthető és logikus, de ebbe bele sem kezdek.

    Inkább nézd az XBox showcase-t. Számold meg az Unreal Engine 5 játékokat, amik olyan elképesztő, előremutató látványvilággal vannak megáldva, hogy nem lesz elég hozzájuk 1080p-ben a 8GB VRAM. Mit láttál, ami egyértelműen veri az elmúlt 5 év legszebb játékait? :D Majd rájöttök 1-2 éven belül, hogy milyen irányba tart az egész. Ahogy mindig, a tömegnek idő kell hozzá.

    Adhatnának a cégek kártyákat több VRAM-mal akár már az alsó kategóriában is? Persze, fognak is. Meg fogják a fejlesztők tölteni azt is, hogy továbbra sem változik szinte lószart sem a látvány, amint látják, hogy a felhasználók nagy részének már több VRAM van? Mi az hogy, naná!

    Ej, vicces ez a vita, olyan szempontból is, hogy a grafikát mindig másodlagosnak éreztem, de ezt az ostobaságot, amit te, meg még néhány nagy tudású tol napi szinten, már fárasztó nézni. Diminishing return, írtam már. Nekem szvsz már most is elég az a szint, ahol mozognak a játékok, inkább a játékmenetre fókuszálhatnának jobban AAA vonalon, mert az hogy az indie game-ek megszégyenítik őket játékélmény terén, az egyre mulatságosabb.

    [ Szerkesztve ]

  • kwzatz

    őstag

    válasz hajbel #477 üzenetére

    "Viszont ha ilyen jól meg tudtad jósolni a crypto piac alakulását, akkor miért nem gazdagodtál meg belőle?"
    Itt valami olyasmit feltételezel, amiről nincs infód. A "gazdagot" én személy szerint azért még erősnek érzem, de a 14-15x azért megvolt, és nem egy gombóc fagyi ára volt a kiinduló tőke. A többit a fantáziádra bízom. :U

    "Mutasd meg, hogy melyik videóban, mit jósoltak, támaszd alá ha vádaskodsz!"
    Ez vicces abban a topic-ban, ahol 100 hsz-szel később sem sikerült még alátámasztani a "8GB nem elég 1080p-re még 100k-s kártyákon sem" állításodat. Biztos rohanok, megnézem az összes tavalyi, tavalyelőtti ilyen témájú videójukat, hogy neked bizonyíthassam. Mi ez a nagy felháborodás amúgy, melyikükbe vagy szerelmes? :D

    "miközben azt állítod, hogy a 2015-ös játékok jobban néztek ki"
    Szerinted mi néz ki jobban, az Arkham Knight vagy a Forspoken? Arkham Knight vagy Gotham Knights? Vajon miért nem fogsz erre a kérdésre egyértelmű választ adni? No, no melyik?

    "Már a felvetés is nevetséges, hogy megjósolod a játékipar alakulását"
    Oh ha tudnád, mi mindent meg lehet jósolni. Minden matematika, statisztika, trendek, ciklikusság és pszichológia. Majd gondolj erre vissza, amikor a recesszió közepén látod arról a cikkeket, hogy a játékipar is egyre jobban megszenvedi a dolgot. Akkor, amikor mindenféle elbocsátásokról, elhalasztott játékokról olvasol sokkal nagyobb rendszerességgel a következő ~2 évben, mint korábban bármikor. Ahogy sorra jönnek ki szinte kivétel nélkül a szarabbnál szarabb állapotban leledző játékok. Nem mintha nem lehetne már most látni az előszelét, ha valakinek szeme van.

    "Megsúgom még azt is, hogy YT-ról megmondani, hogy minek milyen grafikája már csak azért is hülyeség, mert a yt durván tömörít. Showcaseről meg főleg nem fogsz semmit megmondani."
    Legközelebb jó bitrátájú 4k videókat nézz. A showcase is ment így, ráadásul rögtön utána felkerülnek egyesével is a videók. Még mindig nem olyan, mint ha a gépeden futtatod, de bőven lehet véleményed róla az alapján. Másképp minek csinálnák ezeket a showcase-eket, ha nem nyűgözhetnék le ezzel az embereket?
    Egyébként ennek az érvednek az a legnagyobb hátulütője, hogy akkor te mégis hogy a francba döntesz a Hardware Unboxed "durván tömörített YT videói alapján" bármiben látvány kérdésében? :U

    "Gondolom csodálkozol azon, hogy miért nincsenek barátaid."
    Nem kell csodálkoznom szerencsére semmin, ez pedig már a második téves feltételezésed egy hsz-en belül. ;)

    De nem forgatlak tovább. Ha ez nem segített, semmi nem fog. Ráadásul meg is untam, menthetetlen vagy ebben a kérdésben.

    [ Szerkesztve ]

  • kwzatz

    őstag

    válasz hajbel #484 üzenetére

    Neked hiába ír bármit az ember. Ha lenne értelme, akkor mostanra eljutott volna már az agyadig, hogy az a 3070 vs 6800 videó 2 hónapos. Azóta volt egy olyan patch, amivel kb. 1-1,5GB-tal lejjebb küzdötték a VRAM-használatot (ez is mutatja, milyen remek állapotban adták ki, ugye?). Egyébként erről is van egy Digital Foundry videó, pl. a mostani medium nagyságrendekkel néz ki jobban, mint a megjelenéskori medium, kisebb VRAM-használat mellett, ugyanez igaz high-ra, ultrára. (és még mindig nem az igazi)
    The Last of Us
    Tudom, ez csak egy "tömörített YT-videó", de ha nem tudod kipróbálni a játékot, akkor talán ez is segít valamit.
    Erről valahogy Steve és Tim egyelőre nem csinált videót, gondolom a mostani clickbait bullshitjüket amivel téged és a társaidat etetik nem kívánják még összeomlasztani. :D

    Emellett írtam, hogy nekem megvan a Last of Us, és pont az agyhalott sírás miatt megnéztem Afterburnerrel, nem kellett 8GB VRAM az első 1-2 órában sehol. Azt is írtam, hogy a Last of Us önmagában 1080p ultrán elmosódott szar a gyenge TAA miatt pl. az FSR Quality-hez képest, ebből adódóan irreleváns, hogy egy szuboptimális látvány, ami szarabbul fut, milyen is valójában. Ez sem ment át. Írtam többször, Day 1 állapotból indultok ki, olyannyira optimalizálatlan játékokból (ebből is van összesen 3-4), amit egyszerűen szégyen, hogy egyáltalán kiadtak olyan állapotban.

    Mint egy papagáj, aki tolja ugyanazt a baromságot, azt értelmezni, amit a másik ír viszont sajnos már nem képes. Olyan vagy, mint a régi raiffaisenes reklámban az ügyintéző hölgy: "Papapapapapa" :D

    Olyan ember vagy, akit ha már egyszer megetettek valami baromsággal, akkor attól képtelen vagy eltérni akkor is, ha videót, számokat, személyes tapasztalatot, racionális érveket, 30 játékról benchmarkot stb. mutatnak arról, ami pont az ellenkezőjét bizonyítja. :D

    [ Szerkesztve ]

  • kwzatz

    őstag

    válasz laposonly11 #500 üzenetére

    Kezdjük azzal, hogy ilyen Youtube videót, amit linkeltél az "idén érkező 18 UE5 játékról" én is összedobok neked 20 perc alatt, attól az még nem feltétlenül lesz igaz. Majd figyeld a halasztásokról a híreket. Csak példának, hátha segít a felfogásban: Day Before először 2022 júniusra volt írva, most 2023 december leghamarabb.
    A másik az, hogy ezek közül melyiken látszódik az, hogy nem lesz hozzá elég a 8GB VRAM 1080p-ben? A többire nem is reagálok, IQ bajnokozol, miközben túlzás nélkül is legalább 40 a különbség kettőnk között a kommentjeid alapján, és természetesen a te hátrányodra. Még egyszer: Túlzás nélkül.

    hajbel: "Másodsorban azért, mert elmondják és meg is mutatják, hogy trágya az FSR és a DLSS implementáció." Nagyszerű, én meg kipróbáltam. Ami elmosódott natív TAA Ultrán, az éles FSR-rel, még élesebb sharpeninggel. Hogy van-e shimmering itt-ott? Egészen biztosan, 1-2 órában nem igazán tűnt fel. Aztán dönthetsz, hogy ez, vagy az elmosódott TAA, mert ilyen most a játék. Én is döntök: Várok vele, ingyen volt. Te arra hagyatkozol mindig, amit "mondtak", én meg arra, amit kipróbálok.

    "Haramadsorban azért, mert azt állítod, hogy a 2015-ös játékok jobban néznek ki, mint a maiak"
    Még mindig nem válaszoltál arra és ezen a ponton már rohadt vicces, hogy az Arkham Knight vagy a Forspoken a szebb. És most sem fogsz. Na miért nem fogsz? Ha azt mondod, hogy az Arkham Knight, nekem adsz igazat, ha azt, hogy a Forspoken, akkor nevetségesebbé válsz, mint amilyen eddig voltál. :D Ezért tolod ugyanezt az egy mondatot a 2015-ös játékról, mert nehéz belátni a dolgot. Vicces azért ez a kínlódás, szó mi szó. Ha megint nem írsz rá egyértelmű választ persze, az sem segít, mert akkor is nyilvánvalóvá válik a dolog, és ugyanannyira nevetséges is. :D

    "Muszáj etetni, mert jönnek emeberek tanácsot kérni és felrevezeti őket, ráadásul kevesen utasították el a fantazmagóriáit a topikban."
    És mi ez a fantazmagória? Hogy 1080p-ben elég a 8GB VRAM? Hogy 98k-ért nem rossz egy RX 6650XT? Hogy az Arkham Knight szebb, mint a Forspoken? :D Neked az a tanácsod, hogy vegyenek 150k-ért 1080p-re, ha kell ha nem, ha nem szeretnének annyit költeni akkor is, mert van 3 szar játék, amiben az ultra nem megy még két patch erejéig. Ehhez tényleg rengeteg ész kell. Olyan, mint a YT videó a csajjal, aki nem érti miért van annyi hajléktalan, egyszerűen csak házat kellene venniük. :D Egyszerűen képtelenek vagytok árnyaltan gondolkodni és reálisan látni a helyzetet. Ha van ~150k 6700XT-re persze, vegyél azt. Ha nincs, ne érezd rosszul magad egy ~100k-s 8GB-os kártyával, (sőt, akár a 80k-s 6600-zal sem, attól függően, mikkel szoktál játszani) mert simán elég 1080p-re, sőt. Ezzel szemben, ti azt toljátok, hogy "8GB-tal MIND ITT HALUNK." Végül is vicces amúgy.

    b.: "Ez van.Ha el akarnak adni rá játékot ,úgy kell megcsinálni a motort ,hogy skálázni lehessen." Szerintetek ezek az arcok ezt megértik itt a topic-ban? Csak egy Steam Survey-t kellene megnézniük, hogy mennyi VRAM van az embereknek. Azt hiszik, hogy a cégek majd karba tett kézzel nézik a szar eladásaikat, mert a kutya sem veszi a megjelenéskor problémás játékaikat (Forspoken, Last of Us) és nem fognak vért izzadni, hogy beleférjenek 1080p-n 8-ba az elkövetkezendő 3-4 évben. Szar megjelenések tonnaszámra lesznek így is a gazdasági helyzet miatt, de ez meg megint túlmutat a topic-on, a két fenti zseninek meg pláne nem kezdenék makroökonómia kiselőadást tartani.

    [ Szerkesztve ]

  • kwzatz

    őstag

    válasz hajbel #499 üzenetére

    Még valami ehhez:
    "Másodsorban azért, mert elmondják és meg is mutatják, hogy trágya az FSR és a DLSS implementáció."
    Felhívnám a figyelmed még egy lényeges dologra: Performance módban mutatják (gondolom így tudják érzékeltetni jobban a mondanivalót az árnyékokkal kapcsolatban 3x zoom mellett). Lehet nem tudod, de felette még van "Balanced", valamint amit én említettem a "Quality".

    De én mocskos rendes vagyok, és még többet segítek a megértésben, hogy még te is láthasd, miről is beszélek:
    FSR2vsNatív
    Még a folyamaton is végigvezetlek, laposonly11 is csatlakozhat:
    1. Legörgetsz 1080p-hez.
    2. Bal oldalon kiválasztod az FSR 2.2 Quality-t, jobb oldalon a natív TAA-t.
    3. Rákattintasz a "Maximize" gombra fent középen.
    4. Összehasonlítod. Pár támpont: Téglák, a Pizzeria felirat, Joel táskája, bármi. Játék közben a "fátyolos, homályos" "nathívulthra", amit annyira szerettek, egyértelműen gyengébb (így sem csúnya játék persze, sőt) a Quality FSR-nél (amivel sokkal jobban fut, nekik limites ez a ~100 fps mindenre). Engem is meglepett egyébként.
    Shimmeringre ott a videó, bár 2 hónapos, és mint mondtam, volt egy nagyobb patch azóta.

    Ezt én kipróbáltam a játékban, meg még ezer más beállítást, nálam így történik. Nálad úgy, hogy "más mondta", miközben ráadásnak félreértelmezel mindent, amit lehetséges és ami segíti a már kialakított bias-t. Nem vagyunk egyformák. :D

    Azt hiszem körbejártunk mindent, és mindkettő álláspontja elég jól lett érzékeltetve. Mindenkinek jó játékot! (legyen az akár élvezetes játék 8GB VRAM-mal vagy mazochizmus Forspokennel és 12GB VRAM-mal :D )

    [ Szerkesztve ]

  • kwzatz

    őstag

    válasz hajbel #515 üzenetére

    Erősítse már meg valaki a topic-ból, hogy ilyen szinten értetlen csak szándékosan lehet valaki, mint hajbel. Már az elején is gondoltam, hogy troll, mert tényleg nehéz elképzelni, hogy vannak olyan arcok, akik komolyan tolják azt, amit ő.

    1. Ez mennyire rossz. :D Nem tartozik a témához, de folyamatosan ezzel jössz elő, hogy "nevetséges a feltevésed, hogy 2015-ös játékok jobban néznek ki" Miért nem tudsz rá akkor válaszolni? Melyik néz ki jobban, a 2015-ös Arkham Knight vagy a friss Forspoken? Szórakoztató amúgy.

    "Nézz több DF-t"
    Neked kellene inkább kevesebbet, és néha kimenni helyette inkább a napra, mert úgy néz ki, hogy sokat nem segít. Vagy esetleg ha a gép előtt ülsz, néha próbálj is ki egy-két játékot.

    2. "A sharpeninget eleve 0%-ra kéne állítani, mert csak ront a helyzeten, ez a videóban is elhangzik." Megnézted amit küldtem? Végigmentél a lépéseken? Melyik volt szebb, az FSR2 Quality vagy a natív TAA a Last of Usban? Miért nem fogsz erre a kérdésre sem válaszolni? :D
    Amúgy is mi ez, hogy "kell"? Felállították a Nemzeti Sharpening Beállító Bizottságot és bevisznek ha én meg 10%-ra teszem, mert nekem úgy jobban tetszik? :D Arról ne is beszéljünk, hogy ő DLSS-ről beszél, fogalmam sincs, ott milyen a sharpening, én FSR-t használok. De azt is elmondom, hogy zéró sharpeningnél is szebb az FSR Quality mint a natív. Tudod. Mert én megnéztem. Te meg még úgysem, hogy leírtam, mit nézz. Confirmation bias az egekben. Most sem fogod megnézni, mert a tagadás, az emberi pszichológia az ilyen. :D

    3. "Az a fantazmagória, hogy ellentmond önmagának az a két tézised, miszerint elég lesz mindenre a 8gb, viszont a gazdasági helyzet miatt egyre több optimalizálatlan játék jelenik meg."
    Megint jó példa arra, hogy képtelen vagy árnyaltan gondolkozni. Valami megjelenik fos állapotban -> nem elég a 8GB hurrdurr, jönnek a felháborodott clickbait YT videók, hajbel megnézi mindet --> "na ugye, igazam volt!" -> eltelik 2-3 hónap, patchelték, elég ultrához is -> mindenki boldogan játszik vele, hajbel meg él tovább a kis álomvilágában :D
    A "mindenre a 8gb" rész meg természetesen megint ostoba, összemosott, félrevezető kijelentés, mert nyilvánvalóan teljesen mást mondtam eddig is.

    "Kár, hogy a valóság ellentmond annak, hogy mindent a rossz kártyákra optimalizálnak, mivel az utóbbi pár hónapban megjelent 7 olyan játék, amiben szívsz 8gb vrammal, így vagy úgy. Az, hogy ti nem játszotok ezekkel, ok, de azt is figyelembe kell venni, hogy más szempontból is lehet szemlélni a dolgokat"

    I. Nem játszani ezekkel és II. nem próbálni abszolút retardált módon feszegetni a határokat és olyan körülményeket teremteni, a legújabb címekben Day 1, amiben már elhasalhat 8GB VRAM, miközben látvány és teljesítmény szempontjából sokszor semmiféle előrelépést nem tapasztalunk - az még viccesebb, amikor visszalépéssel jár -, az két különböző dolog. De mondtam már. Neked ez túl árnyalt.
    Mi ez a 7 játék? Definiáld már azt is, hogy mit jelent benne a "szívsz". Tudod, képek, példák, hogy miről kell lemondani és mi érhető el 8GB-tal. Tudod, amik most már 150 hsz óta nincsenek. :D

    Bár nem tudom, itt annyi baromságot szórtatok már, hogy tényleg hanyagolnom kellene a topicot. "Szakmai fórum". Az bazze.

    kansas: "Azt állítják többen, hogy 2023-ban 4-500 dolláros kártyára illene többet tenni, amivel alapvetően én se vitatkozok."
    Ezen gyakorlatilag senki nem vitatkozott a topic-ban, de hajbelnek szerintem még ez sem ment át a mai napig sem.

    [ Szerkesztve ]

  • kwzatz

    őstag

    válasz hajbel #520 üzenetére

    "Van aki warezol, mint kwzatz"
    Csak eredeti, vásárolt játékokkal játszom. A Last of Us-t a kártyához adták, te zseni. A többire már nem is reagálok érdemben egyikőtöknek sem. Már azt az időt is sajnálom, amit eddig rátok pazaroltam. Hamarabb fel kellene már ismernem, hogy valószínűleg "mindentudó" 14-18 évesekkel vitázom, ráadásul szerényebb képességűekkel. Bár laposonly-nál végül is az első kommentje után leesett, annyira nem rossz arány.

  • kwzatz

    őstag

    válasz Busterftw #618 üzenetére

    Van egy RTX 3070-et birtokló user. Van egy játék DLSS 3-mal. A 3070-es user be tudja kapcsolni a DLSS-t, a frame gen-t ugye nem. (nem NV kártyám van, de javítsatok ki, ha nem így működik, Plague Tale videóban így láttam) Mit használ? DLSS 2-t vagy DLSS 3-at? A DLSS 3 támogatott a 3000-es szérián, vagy nem? :U

    [ Szerkesztve ]

  • kwzatz

    őstag

    válasz Raymond #622 üzenetére

    Nem, a probléma egészen másban leledzik és összetettebb. :D

    Van némi logikai ellentmondás abban, ahogy fogalmazol.
    1. Azt mondod, hogy a példámban a user az RTX 3070-nel DLSS3-at használ.
    2. A DLSS 3 állításod szerint nem a framegen önmagában, hanem a super resolution+frame gen+reflex. (ami tiszta sor egyébként)
    3. A 3070-en nem tudod bekapcsolni a középsőt.
    Ha a DLSS3 a super resolution+frame gen+reflex, tehát mindhárom együttesen, és ebből a 3070-en nem lehet bekapcsolni a középsőt, akkor hogy használ a 3070-es user DLSS3-at?
    Tehát most akkor egy DLSS3-at támogató játékban akkor is DLSS3-at használsz csak framegen nélkül, ha RTX 3xxx-es kártyád van? Akkor miért kell a DLSS3-hoz RTX 4xxx-es (Ada) kártya az Nvidia szerint? :U (Ezt legalább ezer helyen lehet látni, hogy kiemelik.)

    A kérdés, amit nem tudtak fent eldönteni, abból ered, hogy a DLSS Super Resolution, amit az egész DLSS3 részeként kezelsz, az önmagában, ha nem kapcsolod be a frame gen-t, akkor az DLSS 2.x vagy DLSS 3.x.

    Az alapján, amit olvastam és amiből szerintem itt a félreértések adódnak a következő:

    Ahogy nézem, most DLSS 3.1.13 lehet a legutóbbi verzió. Amit Kansas állít, hogy ez önmagában framegen nélkül valszeg semmi egetrengető különbséget nem tartalmaz mondjuk a 2.5.1-hez képest, hívhatnák egyszerűen 2.6-nak is, mert a nagy változtatás nem a DLSS Super Resolutionben történt (ami eddig DLSS 2.x néven futott), hanem a framegen és a reflex "hozzáadásával". Szerintem ezt jól látja.
    Csak az Nvidia úgy gondolta, hogy így nevezi mostantól, egybemosva két (illetve három) eljárást, mert... marketing.
    Tehát amikor framegen nélkül, régi kártyán használod a DLSS-t egy DLSS3-at támogató játékban, akkor ugyanazt használod, amit eddig DLSS 2.x néven pörgettek, csak most már DLSS 3.1.13 stb. a verziószám... de ez nem DLSS3. :D

    Szóval bármilyen furcsa, amikor azt mondják, hogy DLSS3, akkor együttesen valóban a Super Resolution+Frame Gen+Reflex kombóját értik alatta, amihez RTX 4xxx-es kártya kell, míg ha csak az SR-t kapcsolod be, mert 3xxx-es kártyád van, akkor a DLSS 3.1.x-es verziójú Super Resolutiont használod.

    [ Szerkesztve ]

  • kwzatz

    őstag

    válasz Raymond #626 üzenetére

    Oh nem. Sokat írok, mert alapos szeretnék lenni. És mindjárt megmutatom, mennyire rendesen olvasok, veled ellentétben. 

    Induljunk ki a következő teljesen hibás feltételezésedből, aztán amikor ez megvolt, akkor olvasd el újra az előző hsz-em, azután már tiszta kell hogy legyen majd a kép.

    ""Akkor miért kell a DLSS3-hoz RTX 4xxx-es (Ada) kártya az Nvidia szerint?"

    Nem kell." Mondod te. De igaz ez? :D

    Akkor most nézzük, hogy a gyártó, Nvidia mit gondol erről, csak hogy lásd, miért nem úgy van, ahogy gondolod:
    I. Nvidia cikk:
    NVIDIA DLSS 3: AI-Powered Performance Multiplier Boosts Frame Rates By Up To 4X
    1. szövegrész:
    "Today, we are excited to announce NVIDIA DLSS 3, the next revolution in neural graphics. Combining DLSS Super Resolution, all-new DLSS Frame Generation, and NVIDIA Reflex, running on the new hardware capabilities of GeForce RTX 40 Series GPUs, DLSS 3 multiplies performance by up to 4X over brute-force rendering."

    "Combining", tehát együtt a 3.

    2. szövegrész
    "With DLSS 3 enabled, AI is reconstructing three-fourths of the first frame with DLSS Super Resolution, and reconstructing the entire second frame using DLSS Frame Generation."

    Megint, egyértelmű, hogy részét képezi a frame generation, ha DLSS 3-ról beszélünk.

    3. szövegrész
    "DLSS 3 also incorporates NVIDIA Reflex"
    Incorporates, azaz magába foglal.

    Ha ez nem győz meg, itt a másik cikkjük, ami még egyértelműbben kifejezi, hogy gondolkoznak róla az Nvidiánál.
    II. Nvidia cikk:
    NVIDIA DLSS 3 Multiplies Frame Rates
    1. szövegrész:
    "Powered by new hardware capabilities of the NVIDIA Ada Lovelace architecture, DLSS 3 generates entirely new high quality frames, rather than just pixels."
    A DLSS3 új képkockákat generál. Hogy mi? De hát ha kikapcsolod a frame gen-t, akkor... izé?
    2. szövegrész, a legsokkolóbb:
    "DLSS 3 games are backwards compatible with DLSS 2 technology - developers simply integrate DLSS 3, and DLSS 2, also known as DLSS Super Resolution, is supported by default."
    Gyakorlatilag kerek-perec leírják, hogy a DLSS 2 az a DLSS Super Resolution, továbbra is. Tehát ha csak azt használod, akkor gyakorlatilag DLSS 2-t használsz, még akkor is, ha a verziószám 3.1.x vagy majd 4.1.x, amikor jön az új móka a jövőben. Érted, a DLSS3 játékok támogatják a DLSS2-t. Tehát az Nvidia itt valamit DLSS2-nek nevez a DLSS3-as játékokban. Le is írják, hogy mit, a DLSS Super Resolutiont, vagyis ami marad, ha nem használod a frame gent.

    Ha ez így nem egyértelmű az Nvidia oldaláról vett idézetekkel, akkor már nem is lesz az. :D Amúgy nem csodálom, hogy összezavaró lehet ez az egész, mert az Nvidia mindent megtett annak érdekében, hogy így is legyen. De hát még a kártyák elnevezésénél is igyekszik ezzel, szóval miért itt lenne egyértelmű? :D

    [ Szerkesztve ]

  • kwzatz

    őstag

    Neked kellene Raymond, mert a gyártó honlapjáról vett szó szerinti idézetekkel mutatom be, hogy miért gondolkozol teljesen tévesen a dolog minden egyes eleméről. :D
    A te "érved" ezzel szemben annyi, hogy "mert csak". Sajnos itt akinek nem sikerül szöveget értelmezni, az te vagy. Jobban tudod talán az Nvidiánál, hogy ők mit miért és hogyan neveznek? :D

    Hogy már-már megsemmisítően egyértelmű legyen (:D), még egy, az előzőeknél is nyilvánvalóbban fogalmazó Nvidia cikk:
    Marvel’s Spider-Man: Miles Morales Out Now On PC, Enhanced With DLSS 3, Ray Tracing & Much More

    1. szövegrész:
    "Playing Marvel’s Spider-Man: Miles Morales on a GeForce RTX PC, laptop or graphics card enables you to experience the game at its very best, enhanced with NVIDIA DLSS 2 Super Resolution, NVIDIA DLAA, and upgraded ray-traced effects that run fastest on GeForce RTX thanks to the dedicated RT Cores found on each RTX GPU. And if you play with a GeForce RTX 40 Series graphics card, you can experience Marvel’s Spider-Man: Miles Morales with the game-changing NVIDIA DLSS 3, which accelerates performance at 4K by over 2X, giving you the fastest, highest-fidelity experience possible."

    Érted Raymond? "If you play with a Geforce RTX 40 Series Graphics card"

    2. szövegrész:
    "Through a process detailed in full in our DLSS 3 explainer article, DLSS 3 combines DLSS 2 Super Resolution technology and DLSS 3 Frame Generation to reconstruct 7/8ths of the displayed pixels"

    Így most már remélhetőleg mindenkinek világos, hogy:
    1. 2xxx/3xxx-es kártyákon nem használható a DLSS3.
    2. A DLSS3 nem más, mint a DLSS2 Super Resolution, az Nvidia Reflex és a Frame Generation kombinációja.
    3. A DLSS2 Super Resolution verziószáma 3.x.y, de ettől még nem DLSS3.

    Bónusznak még egy Hardware Unboxed videó, ami DLSS3-at támogató játékokban folyamatosan DLSS2 Quality-re és DLSS2 Quality + DLSS3 frame genre hivatkozik:
    Has Nvidia Fixed DLSS 3 Issues?

    Remélem minden kétséget sikerült eloszlatni. :D Ha nem, akkor a lehetetlennel próbálkoztam, befogadásra képes hallgatóság hiányában. :D

    [ Szerkesztve ]

  • kwzatz

    őstag

    válasz villamos #630 üzenetére

    Kérdezz fentebbről valakit. Tekintetbe véve, hogy kb. 70 komment óta tart, meguntam hogy mindenki csak "véleményt" mond (Kansas kivételével, mert ő is linkelt), ezért megpróbáltam Nvidiás linkekkel, idézetekkel lezárni. :U
    Bár megtanulhattam volna már, hogy PH-n még ez is kevés. :D

    [ Szerkesztve ]

  • kwzatz

    őstag

    Halkan kérdezem meg a topic nagytudású, benchmarkokkal kelő/fekvő egyedeitől:
    A Starfield Hardware Unboxed tesztjei alapján most mi a minimum ajánlott kártya/proci kombó 1080p-re? :DDD (ugye eddig is Day 1 eredmények/1-2 játék alapján volt eddig az érvelés)

    Mert hát a topic-ban eddig hangoztatott "briliáns, korát meghaladó logika" alapján 6900XT/4080 alatt, valamint proci oldalon 7500F/13400F alatt minden mehet a kukába a Hardware Unboxed CPU és GPU tesztjeit látva. De legalább a 8GB VRAM elég. :D

    [ Szerkesztve ]

Új hozzászólás Aktív témák