Hirdetés
- Feháborodott az Apple, a Meta az iPhone-felhasználók üzeneteit akarja olvasgatni
- A luxusmárkáknak kell a bitcoin, az USA jegybankjának nem
- Letiltja az USA a politikusokat a telefonhívásokról és szöveges üzenetekről
- Nagy áttörés jön a napelemek piacán, nem kell annyi hely a paneleknek
- Belenyúlt az USA az Epic Games igazgatótanácsába, nyomoz az NVIDIA
Új hozzászólás Aktív témák
-
Devid_81
félisten
-
Petykemano
veterán
válasz FLATRONW #47850 üzenetére
"Pont az NV fog Intel gyártásra menni azok után, hogy jól megégették magukat a Samsunggal."
valóban úgy tűnhet, hogy megégették magukat, de...
1) ez valószínűleg inkább csak presztízsben mérhető, vagyis, hogy az AMD látszólag veszélyesen közel került teljesítményben. Viszont abu mondott valami olyasmit, hogy az nvidia csak a jó lapkákért fizetett és elég alacsony árat. És azt se zárnám ki, hogy akkortájt a konzolchipek mellett talán a samsungé volt a nagyobb kapacitást kínáló/lehetővé tevő ajánlat.
2) de ami a mondanóm lényege, hogy a Samsung gyártástechnológiája híres arról, hogy elsősorban sűrűségben tudnak lépést tartani, magasabb frekvencián viszont durván elszáll a fogyasztás. (Talán épp azért, mert nagyobb tranzisztorokat raknak sűrűbben)
Az Intel gyártástechnológia viszont épp ezzel ellentétes karakterisztikát mutat. Gondolj csak arra, hogy a raptor lake Intel 7 gyártástechnológián készül, ami a korábbi 10nm, tehát ez a TSMC nomenklatúrájához.viszonyítva 7nm-es osztály és mégis magasabb frekvenciát tud elérni vele az Intel CPU, mint az AMD. (Persze ebben nyilván nem kizárólagos faktor a gyártásechnológia)Szóval én egy olyat el tudnék képzelni, hogy a mainstream konzumer lapkákat, ahol nem tényező a reticle limit, az intelnél gyártsa.
Találgatunk, aztán majd úgyis kiderül..
-
félisten
válasz FLATRONW #47744 üzenetére
Azért annál többről szól szerintem a Ryzen , mint gyártástechnológia. Nehéz lesz ezt azonos gyártáson is behoznia Intelnek, ha csak nem lesz valami fenomenális újításuk.
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
gejala
őstag
válasz FLATRONW #47744 üzenetére
Intelnek egyik nagy baja, hogy ez a Nehalem óta görgetett ringbus 10 magig bírja a strapát. Comet Lake-ben kihozták a 10 magot i9-re, aztán Alderrel megpróbálták ezt a limitet trükkösen megkerülni az e-core történettel. Akkor sikerült is, de Raptornál máris túlfeszítették a húrt. Nincs értelme tovább kerülgetni a csapdákat, kell egy alapjaiban új architektúra.
-
huskydog17
addikt
válasz FLATRONW #47393 üzenetére
Igen, mert pályánként, sőt pályaszakaszként masszívan más eredmények jönnek ki, erre a CB fel is hívta a figyelmet, hogy az eredményeiket megfelelően kell kezelni:
"Die Performance von WRC und auch die Reihenfolge bei den Grafikkarten-Benchmarks ist stark von der Strecke abhängig. Die von ComputerBase durchgeführten Testreihen zeigen die korrekten Ergebnisse, doch sind diese nicht allgemeingültig für das Spiel, sondern gelten eben nur für gewisse Strecken beziehungsweise Abschnitte. Entsprechend kann es vorkommen, dass Benchmark-Ergebnisse einer anderen Strecke völlig andere Ergebnisse ergeben, dennoch wären beide Testreihen korrekt."
A játékban ugyan a performance masszívan változó dolog, viszont két dolog fix: shader compilation stuttering és traversal stuttering, ezek mindig ott vannak, minden pályán.
#47394 ETOM: UE4 powaaa: Iszonyat szarul fut a game, de legalább rondább is, mint az elődje.
[ Szerkesztve ]
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
félisten
válasz FLATRONW #47285 üzenetére
Nem sok játék van számomra ,amik mindig fent vannak a gépemen és szinte bármennyiszer le tudok ülni vele játszani. Az egyik ilyen a Witcher 3, a másik a CP2077. Ez utóbbit már jobban szeretem. Fenomenális játék.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
HSM
félisten
válasz FLATRONW #47124 üzenetére
Összedugják a fejüket, hogy milyen adatokból, a futószalag melyik pontján kéne egy ilyen technológiának szerepelenie, és milyen kimenetet kell adnia a játéknak. Onnantól kezdve a belső működés már mindenki magánügye lehetne. A DLSS is maradhatna a saját technológiájuk, az FSR is maradhatna nyílt.
A játékfejlesztői wrapperek és a streamline is ezt próbálja, de ez utólag már foltozgatás, ezt előre kellett volna jó alapokra építeni, ami mindegyik érintett igényeinek megfelel."Az a baj, hogy közös szabvány esetén nem igazán tudnának egymással versenyezni."
Miért ne tudnának? Mennyire terheli a hardvert, milyen a képminőség, temporális stabilitás? Bőven van hol versenyezni.#47125 b.: Ezért kéne összeülni, megegyezni.
#47126 FLATRONW : Miért ne lehetne? Régen ilyen volt pl. az anizotróp szűrés. Szabvány volt, de bizonyos VGA-kon jobb minőségben dolgozott. Pl. a HD6800-6900 széria ezen javított az előző generációs Radeonokhoz képest [link] .
#47129 Busterftw : Nem tudom, mit akarsz bizonyítani a listáddal. Talán azt, hogy évek óta van szabvány és innováció is? Miközben ezt tudom írni egy USB-C-s dokkolóról, USB-A-s perifériákkal?
#47133 Busterftw : A scaler ugyanúgy működhetett volna szabványos alapokon, sok fejfájást megspórolva az érintetteknek. De inkább a lock-in-t preferálták.
[ Szerkesztve ]
-
félisten
válasz FLATRONW #47128 üzenetére
Én is ezt gondolom,főleg,hogy van 200 DLSS játék,ami nem szponzorált,függetle n döntés.
proci985:
Ezt a forgatókönyvet már olvastam valahol,hogy azért hozta a Gsyncet ,mert jön a freesync,csak nem igaz szerintem .
AMD a Gsync bejelentése után valami kiállításon egy laptopon mutogatta a freesync korai verzióját ami azt hiszem egy meglévő technologia volt.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
válasz FLATRONW #47126 üzenetére
Ilyesmi lenne jó.
AMD és Intel kb úgy gondolkodik, hogy hoznak egy általános megoldást és néha azon felül hoznak egy specifikust, mint mondjuk az AMD féle framegen nem FSR3 változata vagy Intel XeSS nek is van olyan verziója, ami csak Intelen fut és jobb minőséget ad de van egy általános is.
Nvidia hoz egy frankó megoldást, viszonylag jól megvalósítja, de mindig kizár valamilyen hardvereket a körből vagy ahhoz köti őket és az alap általános támogatást nem szorgalmazza.Ez alól az RT a kivétel, mert a Microsoft DXR adja az alapot , egy szabványra épül, azt maximum gyorsítani lehet speckó hardverekkel és megoldásokkal de az alapok adottak.
Ugyanezt meg tudta volna oldani Gsyncnél is, hogy hoz egy alap adaptiv támogatást minden Nvidia kártyára aztán hardverhez köti a jobb minőségű Gsync-et vagy egyes szolgáltatásokat.
DE erre én nem az olyan open megoldásokat látom megfelelőnek, amik egyetlen VGA gyártótól származnak vagy ahhoz köthetőek.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
válasz FLATRONW #47124 üzenetére
Gyártó független megoldás lenne jó, mondjuk Microsoft által a DX keretein belül.
Feljebb beidéztem, hogy a gyártóhoz köthető open-source software sem garancia semmire a jövőben.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
arabus
addikt
válasz FLATRONW #47090 üzenetére
Te valami nagy szakértő vagy.
Fsr3 driverben is lesz azt nem tudja az nvidia megtiltani.
Egyébként valószinüleg jó lesz az fsr3,mert nagyon rezeg most az nvidia.
De remélem legalább az intel gpu-k is feljönnek vele annyira hogy ne legyen ennyire nyeregben az nv mert a felhasználóknak ez semmiképp sem előnyös.Xeon Platinum 8480+,8490H,8468H,Ryzen 7500F,Gigabyte B650M K,Xeon Phi,i9 7960X,i9 7920X,Xeon w2135,Gskill royal 4400,Gskill Trident Z,Pico 4,Red Devil 7900XTX,Asrock W790 WS,Fury Pro RDIMM 6000,Z590,Intel Cryo,Intel 11900F,Ryzen 5600,Radeon 7600,Radeon 6800...
-
HSM
félisten
válasz FLATRONW #47080 üzenetére
Először is, senkitől nem akarok elvenni semmit...
Másfelől elég érdekes az álláspontod, miszerint azt írod az FSR-re hogy "az tényleg egy hulladék megoldás", ugyanakkor azt várod, hogy a konkurencia megoldása meg jó legyen? Ugyan mitől lenne jobb, ugyanezt csinálja. Én a saját szememmel láttam, melyik mit tud, a nagy szakadék ott van, amikor nem natívban indítod, az FSR/DLSS között viszont már nagyítóval kell keresni a különbségeket...
Egyébként a szabvány sem azt jelenti, hogy csak egyformán sz@r megoldása lehet mindenkinek...#47081 Busterftw : Úgy, hogy két különböző, független dolgot jelentenek.
#47084 FLATRONW : Én 1080P-n és 1440P-n próbáltam őket. De 1080P-n már alapból nagyon kevés a pixel, onnan hova csökkented már?
-
huskydog17
addikt
válasz FLATRONW #46982 üzenetére
Az is előfordulhat, illetve talán úgy működik a játék, hogy figyeli a kimeneti felbontást és ahhoz köti a VRAM fogyasztást. Én legalábbis erre tudok tippelni, hogy a rendering felbontás helyett a kimeneti felbontás alapján foglalja a VRAM-ot.
#46983 b.: Erről lemaradtam, továbbá az angolom nem annyira jó, hogy mindent megértsek belőle. Van erről valahol magyar nyelvű leírás, hogy itt mi is történt, miről van szó? Köszi előre is!
[ Szerkesztve ]
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
PuMbA
titán
válasz FLATRONW #46807 üzenetére
Én sem értem ezt a kötelező logózást, mert szerintem nem kötelező. Marvel's Spider Man Miles Morales. Én itt nem látok indításkor NVIDIA logót, pedig ebben a játékban is van DLSS. RDR2-ben sincs NVIDIA logó, csak a Cyberpunk 2077 esetén tudom, hogy van, de ott is 8db logó közé rakva és pirosan, tehát még az NVIDIA zöld színe sincs használva.
[ Szerkesztve ]
-
huskydog17
addikt
válasz FLATRONW #46598 üzenetére
A beszámoló alapján a grafikai szint megközelítőleg sem indokolja a brutális gépigényt, én személy szerint viszont nem ismerem (nem is fogok soha hozzányúlni, mert alapból a játék témája se érdekel), még korábban néztem meg az első in-engine trailert az mondjuk tényleg jó ronda volt.
Úgy látom már elkezdtek róla özönleni a gameplay videók különböző videósoknál.
A Shadow of Mordor legalább annak idején korrekt PC portot kapott, az még valahogy ki is nézett (nyilván korához képest).Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
Yutani
nagyúr
válasz FLATRONW #46587 üzenetére
Jöttök mindig ezzel a "problémás az AMD" kifogással. Polaris-t a kezdetek óta használok, most is van ilyen egy kisebb gépemben. Utána RX 5700-at használtam, majd RX 6600XT-t, és kb 1 éve egy 3060 Ti-t. És tudod, mit? Pont annyi problémám van a 3060 Ti-vel, mint előtte bármelyik AMD kártyával. Vagy én vagyok rohadt szerencsés, hogy nem futottam bele problémákba, vagy fel van fújva ez az egész. Vagy rövid az agyam és nem emlékszem semmire.
Mondjuk ahányféle build van, nem csoda, ha valami előjön. Akár itt, akár ott.Szerk: Nem probléma, de nekem hiányznak az NV esetén azok a funkciók, amik az AMD esetén elérhetők driverből (tweak, stb). Ha bármit állítani akarok a kártyán, akkor Afterburner. AMD-nél ez adott volt. Ja, itt volt egy probléma, időnként elfelejtette a driver a beállításokat az AMD szoftver. NV-nél nincs ilyen gond, mert nincs is mit beállítani.
[ Szerkesztve ]
#tarcsad
-
Kolbi_30
őstag
válasz FLATRONW #46415 üzenetére
Személy szerint, amikkel játszom, azokban csak FSR 1 van..Egy MMO 4k felbontáson nekem jobban tetszik bekapcsolva mint ki, valamiért. Wows ban amig jatszottam vele ott is bekapcsoltam, bar ertelme nem volt, on/off nem lattam kulonbséget.Aztan The Hhunter Call of the Wild, szintén 4k ez csont NV jaték. FSR mellett a fények jobbak, viszont a fak es a levelek változnak, kicsit.De nem azt figyelem. Összegezve szamomra latványilag inkabb jobb mint nem, de ez szubjektiv vélemény. Minden általam jatszott jateknal.Black desert ingyen kiprobalható 7 napig, ha valakii ránézne.
You want some birth control, you can smoke a cigarette.
-
huskydog17
addikt
válasz FLATRONW #46219 üzenetére
Azzal is voltak gondok megjelenéskor. Ott is sok akadás volt, ami erősen függött a CPU-tól, de legalább a VRAM igénye annyira alacsony, hogy még 4K-ban is elegendő a 6 GB.
Azt nem tudom, hogy azóta az akadásokat sikerült-e javítani. Amúgy érdekes módon a Days Gone is pont arra mutat rá, illetve bizonyítja, hogy a Hogwarts-nál valamit kegyetlenül elcsesztek a VRAM használatnál.#46220 b.: A DLSS-el is vannak gondok, sok az úgynevezett smearing jelenség, valószínűleg ez majd javítva lesz, vagy akit zavar, az ki tudja cserélni a DLSS verziót. Szerencsére ebben a címben van olyan jó a sebesség, hogy nem feltétlen szükséges a DLSS. Igen, FSR-ből sajnos csak az első generáció került bele, ezért olyan ocsmány a minősége.
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
Raggie
őstag
válasz FLATRONW #46180 üzenetére
A bugok keresése és a tesztelés szempontjából a gyártók felől nézve egyáltalán nem számít a piaci részesedés, csak a VGA modellek száma.
Kb ugyanannyi VGA típus van a két oldalon, tehát ogyanannyi fajta hardveren kell letesztelni a dolgokat. De mivel egy játékban lévő bugot nem feltétlenül gyártói feladat megtalálni és kijavítani ez nem is annyira lényeges szerintem.
A játékfejlesztői oldalról viszont nagyon is számít a piaci részesedés, mert azt szeretnéd, hogy a lehető legtöbb felhasznló jusson lehető legjobb élményhez. Magyarán ha racionálisan szeretnéd elkölteni a tesztelési időt akkor a legnagyobb részedeséssel bíró VGA-któl haladsz a legkisebb részesedéssel bíró VGA-kig. Így tehát favorizálva lesznek az NV kártyák és az azokon előjövő grafikai bugok hamarabb lesznek kijavítva.
Szerntem ez így logikus.Clint Eastwood FTW
-
Raymond
félisten
válasz FLATRONW #45987 üzenetére
Ezek a kartyak 2+ eve jottek ki igy jo eselyel vannak ott 1+ eves kartyak amiket a bolt mar nemigen gariz es a gyartohoz kell fordulnod.
Ettol fuggetlenul kar hogy azonnal a driverre koncentral mindenki aki a hirt felkapta pedig a videoban a szerzo ezt nem mondja csak annyit hogy az egyetlen kozos pont az volt es kene tobb adat tobb felhasznalotol.
Friss a dolog, majd meglatjuk merre megy a napokban, ahogy neztem der8auer es Builzoid is bekapcsolodott es az utobbi hetek akcioi utan az AMD se fog talan ucsorogni es varni.
Privat velemeny - keretik nem megkovezni...
-
Pug
veterán
válasz FLATRONW #45810 üzenetére
Az ugye megvan, hogy az alábbi két kiemelt mondat üti egymást?
"Nagyon komolyan veszik a tűzveszélyes készülékeket. 2015-ben szinte az összes Shield tablettet visszahívták, mert volt valami gond az akkukkal. Az enyém is beletartozott és Európából még vissza sem kellett küldeni a régit, a helyi hulladék szabályoknak megfelelően kellett volna megszabadulni tőle."
-
félisten
válasz FLATRONW #45540 üzenetére
ha hozzáveszed hogy állítólag nem látszik a teljesítményen akkor meg főleg baromi jó cucc. kíváncsi leszek a kisebbek is megkapják e a dual encodert. mondjuk a 4060, mert akkor sok online streamer álom kártyája lenne . ( 300$ alatt )
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
paprobert
őstag
válasz FLATRONW #45461 üzenetére
A youtube-on található GCN fix órajel és feldolgozószám összevetés. Effektíve egy "GPU IPC" teszt. Talán a Digital Foundry csinálta, már ködösek az emlékeim.
A feature-ök ellenére alig volt egy számjegyű a fejlődés a generációk között, szinte minden gyorsulás csak az órajel és a feldolgozók növekvő számának volt betudható.
[ Szerkesztve ]
640 KB mindenre elég. - Steve Jobs
-
Petykemano
veterán
válasz FLATRONW #45456 üzenetére
Maga a Vega 10 chip lehet, hogy a GCN legalja volt, de érdekes módon a vega architektúrát mai napig értékesítik és elég jó frekvenciákat elér és tudtommal jó energiahatékonysággal dolgozik. Talán tényleg nem véletlenül volt a Navi kitűzött célja a scalability.
Szerintem egyébként már aligha beszélhetünk FineWine-ról. Nem is tudom, hogy pl a legutóbbi OpenGL és DirectX11 újraírásból fakadó előnyből a promozótt 6000-es széria alatt részesült-e bármi?
Máskülönben FineWine-ról addig beszélhettünk, amíg a generációk között GCN alig-alig változott.
Találgatunk, aztán majd úgyis kiderül..
-
félisten
válasz FLATRONW #45456 üzenetére
Nem beszélnek róla. Igazából pont annyira lehet a Pascalhoz nézni mint a Turinghoz. az 30-50 % fogyasztásról ne is beszéljünk. Amúgy nekem a vega abból a szemszögből nagyon tetszett hogy tele volt lehetőséggel.
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Busterftw
nagyúr
válasz FLATRONW #45230 üzenetére
Amugy a fenti beszelgetest olvasva en is erre jutottam, nagy altalanossagban az igaz, hogy Nvidia-val eleg regota nem lohetsz nagyon melle. A nagyobb piaci reszesedes is lehet selling point, mert kb mindenkinek az erdeke, hogy menjen vele minden.
Mar ezek miatt is siman fizetnek kicsivel tobbet a nepek.
-
Pakmara
őstag
válasz FLATRONW #44872 üzenetére
Nekem meg a 3070 Ti VS 6800 a fura. Teljesítményben közel van a kettő, gaming fogyasztásban a 6800 kb a leghatékonyabb kártya bármilyen teszt oldalon. Itt Ti:298 W, RX: 223 W-ra jön ki a fogyi, 60 Fps-re vetítve viszont elveri a 3070 (91 W VS. 119W az RX-nél.) Sőt elvileg a 3090 is csak 119-et eszik.
-
Raggie
őstag
válasz FLATRONW #44858 üzenetére
TPU perf/dollar mutató: LINK
Lényegi rész belőle(1080p-s grafikon alja):
Német(Európai) piacon kapható és elérhető legolcsóbb RTX 3050: ~470 EUR
Német(Európai) piacon kapható és elérhető legolcsóbb RX 6500 XT: ~270 EUR
A grafikonban dollár van eur helyett, de az arányok ugyanazok. A kettő közül egyértelműen a 6500-as a jobb.
Mondjuk RX 6600-as már kapható ~450 EUR-ért amivel jobb helyezése lenne mint a grafikonban az 500-assal, de szerintem nem érné utol így sem az RX 6500-ast.Clint Eastwood FTW
-
Raggie
őstag
válasz FLATRONW #44814 üzenetére
Azért nem kérhetnek el annyit érte, mert annál már olcsóbban van RX 6600 vagy RX 6600 XT és azok meg bőven jobbak, mint a 3050.
@#44813 b. : persze, de aki kártyát akar venni nem biztos, hogy abban az 1 másodperceben keres rá, amikor van rtx 3050. A többi embernek meg marad 650 EUR-ért. De annyiért szarabb vétel.
Akik MSRP közeli áron tudnak venni ott nyilván jobb vétel a két kártya közül a 3050. De az álalánosan elérhető piaci áron viszont jobb a 6500.
Szerintem.[ Szerkesztve ]
Clint Eastwood FTW
-
Abu85
HÁZIGAZDA
válasz FLATRONW #42740 üzenetére
Ez egy időbeli probléma csak, a funkció működik, de be kell paraméterezni. Azért lát az NV lassulást, mert ez még hiányzik az egyes játékokra. A gond az, hogy az AMD a SAM-et 2019 elején kezdte el fejleszteni. Az NVIDIA 2020 nyarán. Egyszerűen hiányzik az a másfél év, ami alatt az AMD kitesztelte az összes játékot. 2022 közepére az NV is el fog érni az összes címig, addig fokozatosan hozzáadják az egyes címeket. Sajnos a paraméterezés az pepecselős meló. Le kell ülni, és egyenként be kell lőni az egyes játékokra a működést. Ezt nem lehet siettetni. Amint kész lesznek ezzel a melóval, az NV sem fog lassulást látni a játékokban. Minimális eltérés egyébként bármikor előfordul, de ha 3%-on elül van az mérési hiba is lehet.
#42739 AsakuraDave : A 3060-ra fel van rakva a VBIOS. A többi hardverre még nem készült el, de nem ez a prioritás jelenleg, hanem növelni kell a támogatott játékok számát.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
AsakuraDave
őstag
válasz FLATRONW #42736 üzenetére
De mikooooooooooooooooooooooooooooooooooooooor?
B550, 5xxx procival nem lehet valahogy működésbe hozni egy 3080-ason?
Most komolyan még várhatunk éveket mire az adott AIB kiadja a VBIOS-t meg ilyenek?There's only one thing that hurts people more than lies. It's saying out loud the truth and facts.
-
Yutani
nagyúr
válasz FLATRONW #42434 üzenetére
Én meg azt olvastam, hogy az NV írta a kódot, csak elérhetővé tették a többi gyártó számára is. Így nem csoda, hogy szarul fut AMD-n. Szarabbul, mint indokolt lenne.
AMD RX 6800 XT runs at almost half the frame rate of Nvidia's RTX 3080 in Vulkan Ray Tracing tests
[ Szerkesztve ]
#tarcsad
-
Shing
őstag
válasz FLATRONW #41190 üzenetére
Nem használ milliárdnyi poligont, de a LOD rendszer le van tiltva, megascan-es assetekkel, 8k textúrákkal. Plusz van RT is. Szóval nem csoda ha játszhatatlan.
Screenshotokon nagyon szép, ügyes hogy ilyen gyorsan megcsinálta. De szerintem láttunk már szebb rendereket is. -
Kolbi_30
őstag
válasz FLATRONW #41114 üzenetére
ha minden fertozottet fejbelonenek akkor meg gep sem kellene es 20 forintbol meg lenne oldva... De wz a jarvany meg total tul van porogve. Eddig csak az halt bele aki amugy is kb meghalt volna 2 honapon belul..De legalabb kiruugtak, mert lelottek a projekjeimet, miatta..
You want some birth control, you can smoke a cigarette.
-
félisten
válasz FLATRONW #40599 üzenetére
Persze már rég kész de nagyon nehezen jönnek ki valamiért. Ha ralepsz a megjelenésre váró cikkekre ott van az 5700 VS 2060. minőségi váltás?
Egyebkent beletettem egy 2070 kártyát is a végére.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Abu85
HÁZIGAZDA
válasz FLATRONW #40333 üzenetére
Nincs baja vele, ha az engine verziót a target RHI-vel használod. Vagy esetleg módosítod, hogy működjön az explicit parallel RHI. A Respawn nem módosította, illetve a fallback RHI-t használja. A 4.21 óta az UE4 target RHI-ja a VulkanRHI. Működik a fallback DX11, de már magát az RHI-t nem erre az API-ra írták. Ez jelentősen befolyásolja a feldolgozást, mert az Unreal Engine a 4.21 óta explicit parallel RHI-ra van optimalizálva, és fallback mellett ez nem használható.
Ugye itt nagy kérdés, hogy mi lesz, mert a The Outer Worlds is így jelent meg, de ott ugye kapásból mondták, hogy hoznak egy DirectX 12 módot később, amivel lesz explicit parallel RHI, amivel sokkal gyorsabban fut az Unreal Engine 4.21-es verziója.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagyúr
válasz FLATRONW #40316 üzenetére
de. a mérés pontosabb lenne. csak éppen ezen az 1 fps beosztású skálán nem jelenne meg a különbség, vagy csak 1 fps-t módosítana rajta. sok szívás látható eredmény nélkül.
[ Szerkesztve ]
Tudod, mit jelent az, hogy nemezis? Az érintett, erősebb fél kinyilatkoztatása a méltó büntetés mértékét illetően. Az érintett fél jelen esetben egy szadista állat... én.
-
-
keIdor
titán
válasz FLATRONW #40301 üzenetére
Már a Turing megjelenésénél kielemezték, hogy sokkal jobb DX12-re és Vulkan-ra egyaránt.
Nagyvonalakban csak erről van szó, az RDR2 pont ezeket használja.
A Pascal meg 3 és fél éves (2016. május, GTX-1080) már és az még DX11-ben tündökölt.
Ma már nem ezzel az API-val jönnek a játékok.
Nyílván az is közrejátszik, hogy kifutott széria, nem kapni újonnan és nem is kap már akkora figyelmet optimalizálásnál sem a fejlesztőktől sem az nVidiától. A cél, hogy vegyél inkább RTX-et, ebben a játékban gyorsabbak is, már egy RTX-2070 Super is.
A Vega is megveri a GTX-1080-at, pedig régebben alatta volt, most már felette.
A történelem ismétli önmagát, mert a Kepler is lehalt nagyon idővel, régen verte a GTX-780Ti a 290X/390X-eket, később beelőzte az AMD.¡GLORIA A LAS PLAGAS!
-
-
Abu85
HÁZIGAZDA
válasz FLATRONW #40114 üzenetére
[link] - ezen ne csodálkozzunk, az Unreal Engine 4 DirectX 12 leképezője sok szempontból nagyon elavult. Az Epic a Vulkanba rakja a pénzét, és a DirectX 12-t nem fejlesztik vele, vagyis ezt a licencelőknek kell megcsinálni. Ha erre nincs erőforrás, akkor inkább ajánlott a Vulkan leképezőt használni, mert azzal foglalkozik az Epic.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Egon
nagyúr
válasz FLATRONW #40069 üzenetére
Nemtom, ki kellene próbálni, de nekem nincs olyanom (ha valakit érdekel, és van olyan kártyája, szívesen megadom hozzá az inputot privátban).
Annyit tudok, hogy a 2080 Ti-nek szűk 2 óra a becsült futási ideje, a 1070-emnek kb. 6.5 óra volt (a feladat jellegéből adódólag, lehet hogy a tényleges számítással fele ennyi idő alatt végez; elvileg a becsült futási idő a releváns, mert az a maximum ami alatt ténylegesen végezni fog)."Bonyolult kérdésre egyszerű választ keresni helyénvaló, de ritkán célravezető megoldás" (Wayne Chapman)
-
Abu85
HÁZIGAZDA
válasz FLATRONW #40022 üzenetére
Ez a játék DX12-ben tele van furcsa dolgokkal. Az erőforrás-korlátozásoknál iszonyatos, hogy mik vannak. A szinkronizáció ránézésre is eléggé rossz, mert sok a fences, ami azért baj, mert minden ilyen művelet az összes cache ürítését vonja maga után, legalább egyszer, de bizonyos esetekben további szinkronizációs műveletek szükségesek. Itt veszik valószínűleg el a sebesség a DirectX 11-hez képest, mert ugyan a fences fontos funkció, de a túlzott használata nagyon káros. A képi hibák DirectX 12 alatt valószínűleg a rosszul felépített szinkronizációhoz kötődnek, mert az erőforrás-korlátozások nem megfelelő használata bőven okoz hasonló grafikai bugokat, és minden bizonnyal a fences is emiatt van sűrűn használva, mert valamennyire kezelik vele az alapból rosszul felépített szinkronizálást. Csak ez teljesítményben drága, és minden amit nyernek a DirectX 12-n, azt elvesztik itt, plusz még grafikai hibák is vannak.
Ezt rendbe lehet egyébként hozni, bár ez a DirectX 12 legnehezebb része. A legtöbb programot így ki sem adják DirectX 12-vel, mert lerí róla, hogy szarul működik a leképezője, és ez a mód inkább jön egy patch-ben.
A QB ehhez képest sokkal jobb volt, nem tudom, hogy mi ment félre, de gondolom a motort is átírták rendesen.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
-
félisten
válasz FLATRONW #39573 üzenetére
Egyetértek. Szinte mindegyik "A" kategóriás játék húz/ optimalizál valamelyik gyártó fele és így hátráltatja a másikat.Nagy kérdés lesz Intel piacra lépése ez ügyben, még nehezebb lesz a dolog sok szempontból.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
GodGamer5
addikt
válasz FLATRONW #38741 üzenetére
Pont ez a lényeg anno a 7950-et sokkal olcsóbban vettem újonnan mint a konkures kártyákat és 3 giga ram volt rajta, az addig megszokott 1-2giga helyett. Most meg mindent a konkurenciához mérnek...
Hwaprón meg október közepe körül 80k-ért már kifogtam 1070-et, a Vegák meg még most is 90 körül mennek használtba."Többször látsz Game Over képernyőt, mint Michelle Wild f@szt." "It's not a Loop, it's a Spiral"
-
proci985
MODERÁTOR
válasz FLATRONW #37944 üzenetére
masban voltak jo.
a far cry 2 hangulata nekem a mai napig kedvencem. tavaly vegigtoltam megint az 5re varva es van abban valami szep, amikor a 10 eves jateknal harom kijelzon tolva meg mindig volt, hogy megalltam gyonyorkodni a tajban. mechanikailag pedig ma is pont ugyanolyan jo (rossz), mint a megjelenesekor volt.
meg ott volt az idojaras modellezese.
mondjuk tulzas nelkul infamouson az utobbi 10 ev egyik legnehezebb fpse.
Don't dream it, be it. // Lagom amount.
-
szmörlock007
aktív tag
válasz FLATRONW #37944 üzenetére
A far cry 2-ben ami engem anno igazán lenyűgözött, az a környezet. A korhoz képest gyönyörű növényzet volt abban a játékban. Sőt szerintem a növényzet ma is megállja a helyét. És a szél. Mai napig emlékszem, amikor az amúgy is nagyon szép tisztáson gyalogoltam és egyszer csak elkezdett fújni. A fű, a fák minden annyira természetesen mozog. A tűz is nagyon jól terjed, hat rá a szél stb.
-
proci985
MODERÁTOR
válasz FLATRONW #37687 üzenetére
magas felbontasban (5760x1080) nalam a 970 ugy produkalt mikroakadast far cry 4 alatt, hogy kozben 40-45 fpsem volt.
forumtarssal teszteltunk DSRrel 4Kban, neki a 980 picit gyorsabb volt, viszont nem produkalt mikroakadast. a 290X sem.
1080pben persze ez nem volt problema, de en 5760x1080ra vettem es eredetileg SLIt akartam.
Don't dream it, be it. // Lagom amount.
-
Loha
veterán
válasz FLATRONW #37553 üzenetére
A G-Sync modullal szerelt monitoroknak nincs alsó frissítési határa (függetlenül a használt paneltől), tehát 1Hz - 240Hz (vagy a monitor által tudott max.) között működik, alacsony inputlaggal, adaptive overdrive-al, amit szintén nem alapértelmezett FreeSync-es monitorok esetén...
-
Locutus
veterán
válasz FLATRONW #36579 üzenetére
Ezt vajon miért kellett... elég semmirevaló kártyának tűnik, hogy főleg hogy a teljesítményét egy évekkel ezelőtti 1060 is tudja, fele akkora fogyasztással.
Komplett hangrendszerem eladó - https://hardverapro.hu/apro/mackie_studio_monitorok_mr5mk3_mr10s_mk3_sub_asus/hsz_1-50.html
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- SAPPHIRE RX 7900 XTX 24GB GDDR6X NITRO+ GAMING OC VAPOR X - Új, tesztelt - Eladó! 365.000.-
- GIGABYTE Nvidia Geforce GTX 1080 TI Aorus
- MSI GEFORCE GTX 1080 TI GAMING X videókártya eladó
- BESZÁMÍTÁS! ZOTAC Trinity RTX 3070 Ti OC 8GB videokártya garanciával hibátlan működéssel
- BONTATLAN! ASUS ProArt GeForce RTX 4070 OC 12GB GDDR6X Videokártya! BeszámítOK
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: Axon Labs Kft.
Város: Budapest