Új hozzászólás Aktív témák
-
nagyúr
hah, nice try, de ez most csak kőkemény mérésekkel megy, elmélet nem ér
amúgy teljesen korrekt, hogy a 10.1 előnyeit is belevesszük - ez is benne van abban, ami anno felesleges volt, de mára beérhetett.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
keIdor
titán
Már a Qualcomm 600-as széria is jön, HTC One, meg LG Optimus G Pro, az erősebb, mint a Qualcomm S4 Pro, mondjuk mindkettő Adreno 320.
Qualcomm 800 is a küszöbön, bár az tablet SoC lesz egy darabig elvileg.
Volt pletyka, hogy Samsung Galaxy S IV-ben is esélyes lehet a Qualcomm 600 series.¡GLORIA A LAS PLAGAS!
-
krx21
nagyúr
Szerintem attól még be tehetnétek a Far Cry 3-mat! Sokan kíváncsiak rá! Simán le lehetne tesztelni, legfeljebb oda kéne írni, hogy jelenleg a program HDAO-ban NV-nél az UBI miatt még nem jó.(a kép alsó harmada sötétebb...) Attól még a sebesség tökéletesen mérvadó lehet... Vagy még kézenfekvőbb az lenne ha HBAO-val néznétek, ezt úgy is sokkal jobban preferálja mindenki... Én ezért ki nem hagynám a FarCry3-mat...
Az egyik legnépszerűbb játék mostanság... -
-
Bull1
aktív tag
De elvileg az SSAO adná a legrosszabb eredményt, lévén ez dolgozik a leggyorsabban, nem ? Bár én az AO típusok között alig láttam különbséget, egyedüli előny az SSAO-hoz képest a többinek h az árnyékok nem annyira "zizik".
[ Szerkesztve ]
Schmitt Pál szolgálati készüléke: Sony Experia SP ókostellefon - Bip
-
Abu85
HÁZIGAZDA
Csak még annyi, hogy a veszélyes mit jelent. Az AMD erre egyre jobban rájátszik.
A GDC-n az előadások lassan körvonalazódnak:
"DirectX 11 Performance Reloaded" ... Olyan azonnal és könnyen beépíthető optimalizálások, amelyek begyorsítják a feldolgozást. Minden hardveren, de legfőképpen a GCN-en.
"DirectCompute for Gaming : Supercharge your engine with Compute Shaders" ... A cím magáért beszél.
"Tile-based forward and deferred rendering" ... A forward+ modernizált verziója és az a verzió, ami deferred render motorba is beilleszthető, és ezzel az átlátszóság problémája nagyon könnyen kezelhető.
Összességében évek óta létező problémákra, gyorsan beépíthető és hatékony megoldások. És a baj, hogy ezektől a Kepler is gyorsul, vagyis miért ne építeni be a fejlesztő, adódik ugye a kérdés. Érvet nem tud ellene felhozni, mert az alapvető cél, hogy az optimalizálással minden hardveren jobban fusson, és ez jó a felhasználónak.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Attix82
őstag
"Érvet nem tud ellene felhozni, mert az alapvető cél, hogy az optimalizálással minden hardveren jobban fusson, és ez jó a felhasználónak."
Ez a lényeg. Lehet látni, hogy 20 tesztből 10be ez 10be amaz a gyorsabb, aztán a végén összesítésbe kijön az a teljesítmény amennyit ér is az adott VGA. Gondolok itt a VGA teljesítményt az ára adja meg kb, az, hogy mennyire húzható az más kérdés, de azt az emberek 95% nem használja, és nem is lehet alapozni.
A másik dolog, hogy egyre többen használnak APU-t. Vagyis maga a játéknak is futnia kell azon a gépen ha minél több felhasználót szeretne a kiadó cég. Vagyis nem kell komoly teljesítmény egy alap futtatáshoz, max ha valaki 8x simítást + extra ultra dolgokkal akarja futtatni.
Szóval totál felesleges ez az AMD VS NV dolog, mivel végtelenségekig lehetne vitázni. Ha jól tudom összességbe az NV vásárlóbázis nagyobb mint az AMD, így hiába van esetleg AMD előny technikába, a gyártók mind2 VGA-ra gondolniuk kell, mert nekik csak a program eladási mennyiség számít.
A következő NV generáció már biztos kompenzálja ezt a lemaradást és ennyi, de a mostani NVk sincsennek hátrányba mert kb egy normális játék se jön ki .
Üzenem a játékkészítőknek, hogy ne csak a kinézeten melózzanak, hanem tartalom is legyen PL Blizzard, jókat gyárt, kávédaraló gépeken is elfut.
-
nagyúr
az nVidia majdnem mindig konzervatív volt az architektúráival, és sosem hittek a változások gyors begyűrűzésében. egyszer erre nagyon ráb***tak (FX5000-es csudaszéria), de általában fényesen beigazolódott, ahol meg rezgett a léc, ott egy kicsit alátettek az iparnak (ld. geometry shaderek, dx10.1), aztán a léc fennmaradt. lehet, hogy az alátevés most nem fog menni, de a terjedési sebességgel kapcsolatban megint igazuk van. legalábbis egyelőre, mert ha tényleg év végén lesz 700-as, és az is ugyanez a kepler lesz (vagy olyan, mint a gk104->gk114), akkor ott még lehet gond.
viszont a 600-as generáción megint szép mutatós profitot tudnak felmutatni, a gk104 három permutációban tojja rendesen az aranytojást.Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
belinho
senior tag
Én értem, de tényleg annyira AMD előnyt mutat például ez a teszt is ezzel a játékcsokorral, hogy ekkora nincs a valóságban, és ez a teszt még a 12.11-es boost driver előtt született.
Nekem az összegzés szúrja a szemem, az hogy pl a 7850 a 660 előtt van, vagy pl a 7870 a 660Ti előtt, viszont ha más játékokat vagy játékmixet nézek, akkor nem ezt látom, de az összegzés ezt az eredményt hozta, és ebből az átlag user csak azt látja melyik a gyorsabb, és a videokártyás topikban ez alapján ajánlják a kártyákat.A játékokra visszatérve, az Assasins Creed 3-ról itt egy teszt, ha ezzel a beállítással néznétek, az nem lenne jó a tesztbe?
Nem tudom milyen játékok kerülhetnek a tesztbe de pl: Borderlands 2 a physx miatt, Guild wars 2, vagy az új Resident Evil 6 benchmark stb.... közül esetleg valamelyik bekerülne, akkor egy kicsit szorosabb lenne az eredmény. -
Locutus
veterán
Kicsit nézd a user szempontjából is a dolgokat, aki mondjuk pont hidegen hagy a sok technoblabla.
mit lát?
Crysis 3, új, legszebb grafika, DX11, Gaming Evolved. És ezzel szemben nem jön be a papírforma, hogy a GCN kenterbe verné az nvidiát, sőt.
Más: Valami F2P játékot nem vesztek be a tesztbe? Planetside2, vagy Tribes:Ascend... ingyenes, viszonylag jó grafika.
Nekem úgy tűnik mintha kizárólag az AAA címekre várnátok, hogy kaptok a tesztekhez (hiszen ezt írtad), ez meg ugye innentől egyértelműen az AMD-nek kedvez majd (HA bejön a fenti leírt dolog ellenkezője, amit ugye egyelőre nem látni).Komplett hangrendszerem eladó - https://hardverapro.hu/apro/mackie_studio_monitorok_mr5mk3_mr10s_mk3_sub_asus/hsz_1-50.html
-
krx21
nagyúr
Én most VGA "szűz" vagyok... Eladtam a GTX 690-em, variálás miatt...
Kacsingatok a CF felé, mert nagyon nyomul az AMD... Az új konzolokba is megvetette a lábát...
Muszáj figyelembe venni ezek után...
De valahogy nem bízok benne... Félek, hogy csalódnék egy Asus Ares II-ben is a 690-en után...
Ha 680SLI mellett maradok akkor a Evga 680 classified 4Gb SLI a kiszemelt áldozat...
Vagy ha bedurvulok bevágok egy Titan SLI, de abba meg rengeteg pénz lenne bukóban...
Te mit javasolnál ilyen helyzetben?[ Szerkesztve ]
-
SzlobiG
félisten
-
nagyúr
tényleg jó az anand cikk, de úgy látom, a heartbeat stutter jelentőségét kissé elbagatelizálják. nyilván egyénfüggő, de nekem ettől szokott kifolyni a szemem. zárójelben jegyezném meg, hogy a rendszeres nagy ugrások a GPU-órajelben is ilyet okoznak...
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
hát pont ez az, hogy igencsak érezhető, ha valakinek hajlama van rá. ha emlékszel, a 6970 óta panaszkodom a powertune throttling miatt - ez a nagy órajelingás miatt pont ilyet csinál...
a 150MHz az nagyon sok egyre kevésbé bánom, hogy valami low binned GPU-m van - csak sátoros ünnep alkalmával ugrik fel 980-ról 1006-ra
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
a 6970 880 MHz és 500 MHz között oszcillált, az nem éppen 50 MHz diff.
nyilván az nvidia cherry pickkel, csak míg ez avg fps-ekhez jó, lehet, hogy a latency méréseknél befürdenek vele. elég ciki...
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
M@trixfan
addikt
Az AMD részéről nem éreztem teljes mértékben elégségesnek a magyarázatot. Sőt, számomra pont az jött le, hogy még nagyobb is lehet a stutter mint amit a Fraps adatai ki tudnak mutatni. Megtudtuk, hogy a Fraps csak a legfelső szinten dolgozik, a hívások szintjén. A többiről nem tudunk mit mondani. Ha már ott kimutathatóan meg van cibálva az egész pipeline akkor a Fraps adatai a legenyhébb esetet vázolják, nem?
[ Szerkesztve ]
twitter: MatrixfanLive | Ősidőktől a PH!-n
-
SzlobiG
félisten
Igen érdekes, hogy fele annyi a min fps NV-n mint AMD-vel, de mondjuk én játék közbe 30 fps-t se láttam még sose.
Igen azzal nézték.
Kell is mert néha van ilyen beakadás féleség és olyankor tölti fel a vramot elég szépen.
Rics: Sok értelme valóban nincs, mert én se vettem észre kült a 680 után.
[ Szerkesztve ]
-
Whit3Rav3n
senior tag
Bár az hogy a legtöbb oldal az sli-t kedveli összességében arra utal hogy az amd rosszul mérte fel a helyzetet és a legtöbb embert jobban zavarja az egyenetlen frametime-ok mint a magasabb input lag a frame bufferinges megoldásnál. Szóval én kiváncsi leszek arra a driverre ami amd oldalon bemutat egy hasonló eljárást.
-
TTomax
nagyúr
Érdekes amit írsz,mert éppen most nézem nekem 7-10ms a frametimeom SLIvel...Na nem mindenütt és nem mindig és észreveszem ha magasabb... bár nem tudom mennyire mérvadó amit itt a szoftveres mérésként látok/kapok...
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
nagyúr
eeeeegen, ez egyrészt érthető, másrészt ha jó a design, akkor még bele is férhet. csak a sok lensflare-től már a crysis 3-ban nem láttam, mi történik, ki is hajítottam
input lag kérdés: megnézném azért a derék versenyzőket vakteszten, akik kiszúrják a +7ms-ot
a frame smoothing amúgy szerintem csak alacsony fps esetén növeli az input lagot. minden 2. frame a helyén marad, és a közöttük levőket helyezgeti a GPU. ha sok frame-ed van, akkor smoothing nélkül könnyen előfordul, hogy egyes frame-eket egyáltalán nem látsz, mert annyira kevés ideig vannak a képernyőn - ez pedig azt az érzetet kelti, mintha fele annyi fps-ed lenne az engine oldalon. 60 fps esetén pedig a smoothing maximum 16.6ms-ot tesz hozzá, de ugye ez olyan esethez képest van, amikor a "smootholt" frame kb. 1 scanline erejéig látszana. tehát átlagosan jó a 8ms.Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Whit3Rav3n
senior tag
Az rendben van hogy nem veszi ki a módot mert van annak is értelme. Csak pl olyan game-eknél ahol arra kell a cf hogy játszható fps-t kapjon az ember az adott beállításnál ott sokkal jobb a frametimeot optimalizálni mert azt úgysem profin fogja játszani az ember abban a beállításban, ott arról van szó hogy minél jobban játszható legyen és akkor inkább legyen magasabb input lag mint szaggatás.
-
Locutus
veterán
Érdekes ez, hogy szerintük fontosabb az alacsony input lag.
A konzolos játékok világa látszólag pont nem erről szól jelenleg. Se teljesítményben, se kontrollerben, se a TV-k input lagjában nem tükröződik, hogy hú de érdekelné a játékipart a dolog. A PC meg ugye már ma sem a fő platform (sajnos).
Komplett hangrendszerem eladó - https://hardverapro.hu/apro/mackie_studio_monitorok_mr5mk3_mr10s_mk3_sub_asus/hsz_1-50.html
-
-
TTomax
nagyúr
Na hát igen ez amit leírtál az igaz,de ebben ahogy írod benne van ám a monitortól az egérig minden...most ha jól értem CSAK a vga input lagjával foglalkozunk,ám igaz ami igaz hardcore cs vagy cod játékosnak nem való a multiGPU...de ez csak egy valóban vékony réteg,jellemzően ők még csak véletlenül sem vásárolnak csúcs cuccokat,és nem magas grafikai beállításokkal játszanak.
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
nagyúr
-
nagyúr
tehát érdemben a közös címtér felejtős. innentől kezdve a közös, érzékenyen loadbalance-olt, minimális overheaddel járó munkamegosztás is az.
a parancslistás megoldás szerintem nem ennyire egyszerű. a geometria feldolgozása és a megvilágítás során az objektumokat kell szétosztani, a post process során meg gondolom tile-okon dolgoznának a GPU-k. így is, úgy is át kell adni az egyik GPU eredményeit a másiknak és viszont egy frame során legalább egyszer. nekem ez így fájósnak tűnik.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
veterán
Elméletben egy mezei, 60FPS-re képes, HDMI-s, hardveres tömörítéssel rendelkező kártya ugyan úgy alkalmas a tesztre és nem kell semmi más. Persze, ha az NV nem adja oda a progit, akkor a gyakorlatban nem. Ilyen komoly hardver csak akkor kell, ha képkockánként akarod összehasonlítani a tesztalanyok képminőségét is.
-
veterán
Ez egy professzionális felvevő kártya ami tud annyi fps-el rögzíteni ahány Hz-es jelet a DVI-on kap. Teszthez teljesen jó a szokásos 60Hz mert ez szimulálja legjobban az átlagos otthoni környezetet is, amihez pedig nem kell spéci kártya.
Szóval elméletben továbbra sincs semmi akadálya FullHD-ig egy olcsó capture kártyának.
[ Szerkesztve ]
-
veterán
Az AMD az alacsony input lagot tartja szem előtt, míg az NVIDIA a frame smoothingot.
Ez így jól hangzik, de ezek a tesztek rávilágítanak, hogy a gyakorlatban nem igaz.
Gyakorlatban ez úgy néz ki, hogy míg az AMD megoldása figyelmen kívül hagyja magának a játékosnak (ember) a működését, és úgy tolja ki a képkockákat a képernyőre, ahogy éppen sikerül, maximalizálva ezzel a FRAPS által mért fps számot, addig az NV megoldásánál figyeltek arra, hogy az a lehető legjobban alkalmazkodjon az ember működéséhez. A játékosok egy nagyjából állandó input laghoz könnyedén tudnak alkalmazkodni, ahogy írtad is, az ellen elé lőnek pl., de egy folyamatosan változó input lagnál ez egyszerűen lehetetlen, mert nem tudják, hogy mennyivel kell elé lőni.Ha idegenkedsz attól, hogy a virtuális fejlövéshez esetleg az ellen feje elé kell célozni ilyenkor, akkor pedig ott az alacsony input lagra optimalizált verzió.
Itt van pl. egy BF3-as grafikon, nyoma sincs a CF input lag előnyének, azt lehet látni, hogy míg a CF esetében folyamatosan ~0-20ms között ugrálunk, addig az SLI elég jól tartja magát ~10-12ms körül, de az átlag késleltetés kb. ugyan annyi, csak ezt az SLI sokkal kisebb kilengések mellett tudja, és ha kisebb a kilengés könnyebb hozzá alkalmazkodni -> jobb.Aztán vannak itt még érdekes dolgok, pl. itt van a FRAPS-al mért FPS,
itt meg az az FPS szám mit a játékos ténylegesen láthat is. Mit jelent az, hogy ténylegesen láthat? Ebből le vannak vonva azok a képkockák amik egyáltalán nem jelentek meg a monitoron, vagy csak 21 sornál kisebb részét tették ki a képernyőnek, tehát gyakorlatilag nem adtak hozzá semmit a monitoron látható dolgokhoz.
CF esetén elég nagy különbség van a 2 mért érték között, míg szóló AMD GPU vagy SLI esetén meg nincs. CF tulajoknak elgondolkodtató lehet, hogy a monitoron látható képkockák tekintetében alig vannak jobb helyzetben mintha csak egy szóló kártyájuk lenne... -
veterán
-
veterán
Igen, nem méri az input lagot, de mivel az input lag része a frame time, ezért ha a frame time nagyobb, nagyobb lesz az input lag is. Tehát nem tudjuk, hogy mennyi összesen az input lag, de azt tudjuk, hogy CrossFire esetén átlagban nem kisebb, viszont többet ingadozik mint SLI vagy szóló kártya esetén.
A késleltetés nem minden képkockára vonatkozik, csak azok lesznek késleltetve, amik az átlagnál hamarabb kerülnének képernyőre vagy meg sem jelennének monitoron, túl korán a többihez képest.
Ha megnézted volna a grafikont, akkor láttad volna, hogy azokat a képkockákat késlelteti amiket a CF rendszer ~0ms-es frame time-al kiküld és lehet meg sem jelenik a monitoron, ebből SLI-n lesz 10ms késleltetve.
Viszont azok a képkockák amik CF esetén ~20ms-es frame time-al számolódnak, SLI esetén ugyan úgy ~10-12ms után érkeznek gyorsabban mint CF esetén. Tehát a CF rendszer bizonyos esetekben kisebb, bizonyos esetekben nagyobb frame tima-al dolozik mint az SLI, de az átlag kb. ugyan annyi, tehát a kilengés nagyobb.A képtörés az a kijelzett kép része. A monitor akkor sem fog 60-nál többet megjeleníteni.
Mint mondtam, ha a vsync nem hangolja össze a monitort és a VGA-t, akkor több képkocka is szerepelhet egyszerre egy képen, persze tört részleteiben.Sorry, de a maximum pre-rendered framesnek semmi köze az SLI-hez, DirecX cucc, SLI-nél azért hangsúlyosabb, mert könnyebben fordulhat elő CPU limit, és ezzel az opcióval ez csökkenthető, az input lag beáldozásával. A maximum pre-rendered framest a játékok maguk szokták állítgatni, de ezt NV-nél felül lehet bírálni, vagy AMD esetén a játékon belül, ha van rá lehetőség.
De basszus milyen tömörítésről beszélsz, amikor képkockákat ment a rendszer érted ... nem videót.
Nem tudom, hogy feltűnt-e, de sima DVI csatin csatlakozik a capture kártya a VGA-hoz, ami nem egy USB, hogy dolgokat töltsön le rajta az ember, hanem videó kimenet. Videót meg fel lehet venni tömörítetlenül, meg tömörítve is. A videót baszhatom, mert nem tudja az FCAT alkalmazás beszínezni a képtöréseket. Pedig pont ezt csinálja, ráadásul megeszik szinte minden formátumot, csak legyen fent hozzá codec.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- AMD Radeon™ RX 470 / 480 és RX 570 / 580 / 590
- Elemlámpa, zseblámpa
- Xbox tulajok OFF topicja
- GTA VI
- Magga: PLEX: multimédia az egész lakásban
- Luck Dragon: Asszociációs játék. :)
- Vicces képek
- Okos Otthon / Smart Home
- Milyen autót vegyek?
- MasterDeeJay: Volta a bányából azaz CMP 100-210 kisteszt (Tesla V100 mining)
- További aktív témák...
- LG NanoCell 55NANO766QA Halvány píxel csík
- Philips 58PUS8545/12 1 ÉV GARANCIA Játék üzemmód
- Tyű-ha! HP EliteBook 850 G7 Fémházas Szuper Strapabíró Laptop 15,6" -65% i7-10610U 32/512 FHD HUN
- Bomba ár! HP EliteBook 840 G5 - i5-8G I 8GB I 128GB SSD I 14" FHD I HDMI I Cam I W10 I Gari!
- The Last of Us Part I Ps5