Keresés

Új hozzászólás Aktív témák

  • zippofcy

    senior tag

    Ár / teljesítmény viszonylatában a két legjobb kártya most szvsz az 5850 és a GTX 275
    A két legjobb játék tesztre pedig a Metro 2033 (főleg shaderfüggő, és nem túl optimalizált kód) illetve a Bad Company 2 (pont az ellentéte)
    [link]

    [link]

    (Bad Company 2-ben a sivatagi erődben mikor jön a két heli C2D 2.8ghz-en 24 fps-re esett le,
    3.6-on 30-ra, PhenomII 3.4 X3 35 fps-re, PhII 3.6 X4 43 fps-re ugyanazzal a GTX275-össel 1680x1050-ben, vagyis a proci skálázódás is tökéletes benne)

    De az 5850 is túl drága ahhoz hogy megérje cserélnem a 700/1300-on hajtott GTX 275-ösömről. VGAért szvsz 40 ezernél többet nem érdemes adni, különben 1 év alatt sokat bukik rajta az ember. (4850et mikor megjelent vettem 45ért, 1.5-2 év múlva 20at kellett ráfizetnem a 275-öshöz. 5850 max +10-15 ezret ér meg a teljesítménykülönbség alapján)
    Szvsz Karácsony után éri meg majd DX11-es VGA-t venni.

    Nekem olyan okos a telóm meg a TVm hogy én már nem rajtuk játszok hanem velük. Társasozni szoktunk.

  • zippofcy

    senior tag

    Nekem tavaly nyáron mikor lecseréltem a 4850-esem mindenki a 4890-et ajánlotta, mégis a magam feje után mentem és GTX275 lett belőle. Nem is bántam meg, igaz a Gigabyte amit vettem alapból húzott, plusz még arra is rádobtam (700, 1300) de szvsz így gyorsabb mint egy húzott 4890.

    Szal én elégedett vagyok a kártyámmal, de azt ennek ellenére elismerem hogy a physix egy baromság.
    Két játék van amiben tényleg jelentős a látványbeli különbség vele, és nem is lassítja be őket annyira hogy ne legyen értelme kikapcsolni.
    Az egyik a Mirror Edge ami amúgy elég fos játék. Szal felejtős.
    A másik a Sacred 2, ami viszont egy tényleg jó Diablo klón. És sokkal szebb physixel.
    De ettől függetlenül a physix bukásra volt ítélve első perctől fogva.
    És nem a zárt forráskód miatt. Hanem mert a négymagos procik korában semmi értelme bármi mást rárakni a GPUra mint a renderinget. Mikor a shaderek így is annyira lelassítják a kártyákat hogy alig marad bennük kraft a hagyományos értelemben vett renderingre (polygonkipakolás). Vagyis a GPUkat 100%-ra kihajtja a rendering+shader. Hülyeség még mást ráterhelni, hogy a fő feladatától erőforrást vonjon el.
    Sokkal jobb teljesítményt lehet elérni ha a fizika nem lassítja a GPUt, hanem rápakolják a harmadik, negyedik magra. A GPUnak meg marad a rendering + shaderek.
    Ha a physix normálisan menne egy 285-ösön, nem szólnék semmit. De nem bírja el, csak egy 295, vagy egy SLI.
    (abban az amcsi polgárháborús FPSben van hozzá benchmark, meg lehet nézni)

    Viszont az nVidia drivere tényleg jobb, pl. 4850-esen (de a haver 4870x2-esén is) a Guitar Hero sorozat PCs tagjai rángatóztak mint az epilepsziások.
    Beraktam a 275-öt és rögtön olyan sima lett a lefele scrollozás mintha a boxomon toltam volna. Meg havernak a kétmagos 4870-esén néha hibás az árnyék vagy köd (vagy nemtom már mit emleget mindig.)

    Ja és nálam elfogulatlanabb ember nem létezik ... bizonyítékként leírom a konfigjaimat:
    Intel MMX 233 + Voodoo2, MMX 300 (ocd) + Riva 128, Celeron + Voodoo3, P2 + Geforce 4200, aztán a Duron majd a Tbird procim mellett Ati 9500, aztán Athlon64 + Geforce 6800, majd helyette x1950, aztán C2D + 4850, majd helyette GTX275, végül a proci helyett Phenom II.

    Aki Ati vagy nVidia fan az meg olyan mint kiskoromban alsóban a C64-Plus 4 tábora.
    Sőt még olyanabb, mert ez utóbbiból egyértelmű hogy melyik volt a jobb, az előbbiek közül viszont általában generációnként változik a helyzet (az Intel - AMDhez hasonlóan)
    Szőkét vagy barnát szeretek? Az attól függ mi van alatta :D

    A Fermi pedig megbukott, három okból:
    1. Fél éves késés.
    2. A bonyolultsága miatt egyrészt nagy fogyasztás és melegedés, másrészt nagy selejthányad, emiatt magas ár.
    Az előző kettőt ellensúlyozhatná ha mondjuk kétszer olyan gyors lenne mint az 5870 de NEM ez a helyzet.
    3. Jelen pillanatban értelmetlen. Nincs olyan játék ami ne directx alatt íródott volna, és NEM IS TERVEZ ILYET senki ! Akkor meg minek a CUDA? (vagy épp az OpenCL?)
    DXet is alig pár ember bír programozni, ezért használja mindenki az UT3 enginet.
    Persze az a pár ember (Quake, UT, Crysis, Unigine írói) akinek van hozzá tudása, írhatna rá enginet. DE NEM FOG. Mert azt nem lehetne boxon használni. Márpedig az MS gondoskodik róla hogy az elsődleges játékplatform az x360 legyen.
    Aki pedig erre azt mondja hogy nem a játékosok a célközönség ... annak azt mondom nézze meg mekkora piaci részesedésük van a CAD, stb kártyáknak.
    Arra építeni olyan mint ovisoknak Playboyt kiadni.

    Ettől függetlenül lehet hogy lesz Fermim. Lehet hogy az nVidia presztízs okokból kiad egy "jóárúsított" sorozatot, mint ahogy a GTX275-ot kiadta annó.
    De a "hivatalos" árát nem éri meg.
    Ettől függetlenül persze akinek nem az ár / teljesítmény számít elsősorban, vegye nyugodtan. Jelenleg A legfejlettebb GPU ... csak jelenleg tudásának egy része nincs, és szvsz soha nem is lesz kihasználva.

    Végül meg szeretnék kérni mindenkit hogy a családi fotóinkkal NE offoljuk szét a fórumot. Köszönöm ;]

    Nekem olyan okos a telóm meg a TVm hogy én már nem rajtuk játszok hanem velük. Társasozni szoktunk.

  • zippofcy

    senior tag

    válasz zippofcy #6801 üzenetére

    Darkest Day az FPS neve.

    Nekem olyan okos a telóm meg a TVm hogy én már nem rajtuk játszok hanem velük. Társasozni szoktunk.

  • zippofcy

    senior tag

    Ez hosszú lesz de akit érdekel az akadás lehetséges magyarázata az olvassa el:

    Szvsz nem 3rd party programok vagy BIOS vagy ilyesmi okozza.
    Szvsz három oka lehet:

    1. nem megfelelő kód (vmit nem figyelnek le, ezért pl. nvidián jó, ATIn viszont nem, lásd GH. Haverom írt egy Frets klónt és ATIn is tökéletes sima volt a scroll - igaz félbehagyta mert vmikor elszállt az időzítés, vagyis input lag lett ... idő lenne kijavítani de most érettségizik)

    2. driver. Ez hozzátartozik az előzőhöz, vagyis se a kód nem figyeli, se a driver és fellép a rendellenesség.

    3. Maga a kártya architektúrája. Pl. Próbáljátok csak ki hogy NEM proci limites játéknál nvidia kártyán lehúzzátok a shader clockot, míg a core meg a mem clock felhúzva marad.
    Rögtön várnia kell a GPUnak egyes adatokra ... míg a mem clocknál valszeg az egész lassul be, addig a shader clocknál CSAK a shaderes dolgok.
    Vagyis Metro 2033 pl. majdnem mindig, de pl. Crysisban lesz olyan rész ami nem. Más részek meg nagyon. Régebbi 3Ds játékok meg soha, mert azok nem is shaderesek. Én is csak onnan tudom melyek azok hogy náluk a gépem 270Wot fogyaszt, szemben a shaderesek alatti 360Wal.

    Szóval végül is a valódi oka a 3. az első kettő csak ráerősít erre.
    Ez olyan mint a vsync ... ha kódon belül írják meg, akkor sokkal kevesebbet lassít mint ha driverben kapcsolják be. Unigine Heaven demóval jól szemléltethető. Meg lehet nézni hogy kikapcsolt vsync, aztán a benchmarkban bekapcsolt vsync, aztán a driverben bekapcsolt, a benchmarkban kikapcsolt vsync más más frame/sec-et eredményez.

    De ez az én következtetésem, abból hogy C2D proci alatt (vagyis procilimitesen) a shader és core clockot a 275-ösömön aszinkronban hajtottam (core kibír 720mhzet, de a shader 1530 felett "fehér pöttyözik") és sima volt a BC2 futása.
    Aztán beraktam a 4 magos 3.6ghzes PhenomII-őt és az fps a duplájára nőtt. Aztán felhúztam a kártyát (nem rögtön mert Rivatunert nem tudtam az új rendszer alá felrakni, EVGA Precisiont mire megtaláltam) és néha "megugrott" a kép.

    Csak néztem mi ez ...aztán bekapcsoltam a Precisionben a szinkron módot és visszahúztam a core-t 700ra. A jelenség majdnem tökéletesen megszűnt.
    Azért csak majdnem mert van egy rész ami erősen shaderes (a tankos rész után légicsapást kérsz 4 épületre, aztán elindulsz be a városba a folyón át. Balról kiszalad eléd egy katona és elfut előre. Közben tűz, füst, stb) na azon a részen 3.6ghzen látható a jelenség. 3.2 ghzen nem. Olyan mintha a CPU "várna" a GPUra, vagyis mintha az utóbbi gyorsabban kapná az adatot mint ahogy fel tudja dolgozni.
    Én arra tippelek a "renderinget" vagyis a polygon kipakolást gyorsabban csinálja mint a shadereket amilyen sebességgel rá bírja rakni, vagyis a shader visszafogja a renderinget.
    Ha mondjuk a kóder ezt egy gyorsabb shader clockos kártyára írta, ott lehet tökéletesen futott.

    Vagyis szerintem a kártyák architektúrája ilyen. ATInak jobban, nVidiának kevésbé.
    Aki reprodukálni akarja játszadozzon a shader clockkal.
    De ez az elmélet lehet hibás. Én így gondolom, de én nem vagyok VGA kártya tervező mérnök.
    Mindenesetre ha nem, akkor jó kóddal tuti kiszűrhető. Csak ilyet alig pár ember képes írni, és legtöbbször még azok is lusták hozzá. ;]

    Nekem olyan okos a telóm meg a TVm hogy én már nem rajtuk játszok hanem velük. Társasozni szoktunk.

  • zippofcy

    senior tag

    válasz fsb1000 #6902 üzenetére

    Én ezt nem merem lefuttatni a 450Wos tápommal.
    De aki akarja próbálja ki hogy a shader clockot csökkenti, és mindegyik értéknél megnézi akad-e.
    Mert itt a videón levő grafikonon úgy látszik hogy mindkét kártya csinálta, csak nvidia kevésbé.

    Nekem olyan okos a telóm meg a TVm hogy én már nem rajtuk játszok hanem velük. Társasozni szoktunk.

  • zippofcy

    senior tag

    válasz zolisx4 #6903 üzenetére

    A kártyák a 3Ds megjelenítést több lépcsőben csinálják.
    Egyszerű példa: pl. GTben vagy Forzában mikor megnyersz egy autót, kirakja a kepernyőre hogy megcsodálhasd.
    Két fő lépcső:
    1. felépíti az autót a "háromszögekből" vagyis a polygonok renderelése. CPU + GPU egyaránt számol közben.
    2. erre ráhúz egy vagy több 2Ds képet, vagyis textúrázza. Csak GPU dolgozik (az se nagyon :) )

    De mióta vannak pixel shaderes játékok azóta jön a harmadik lépcsőfok:
    3. fények "rászámolása" az autóra. CSAK GPU számolja, és a jelenlegi játékokban erre kell a legnagyobb teljesítmény. Olyannyira hogy a pixel shaderes kártyák teljesítményük nagyobbik részét !!! nem is képesek másra fordítani. Semmiképp. Akkor se ha nincs pixel shader a játékban !
    Ezt a fogyasztásukon lehet lemérni. Pixel shaderrel 100W-al többet zabál pl. a GTX275 mint anélkül. Vagyis ha nincs pixel shader akkor a GPU egy része NEM MŰKÖDIK.
    Akinek van konnektorba dugható wattmérője nézze csak meg.

    Nekem olyan okos a telóm meg a TVm hogy én már nem rajtuk játszok hanem velük. Társasozni szoktunk.

  • zippofcy

    senior tag

    válasz lsc #6907 üzenetére

    Engem totál hidegen hagy ATI vagy nVidia-e a jobb. Gyorsabb. Olcsóbb.
    Mikor egy játék ami érdekel nem fut stabil 40+ fpsel a gépemen, megnézem mi a legjobb ár / teljesítményű VGA + CPU (ha az is kell) amin már fut és megveszem. Erre való a net meg a fórumok.

    A rajongást meghagyom a tinilányoknak. Már gyerekkoromban is anti-fan voltam.
    Nyugodt természet vagyok, nem pörgök (bocs a rossz szóviccért ;] )

    Nekem olyan okos a telóm meg a TVm hogy én már nem rajtuk játszok hanem velük. Társasozni szoktunk.

  • zippofcy

    senior tag

    válasz proci985 #6912 üzenetére

    Nem, BE vagyis csak a szorzót emeltem. Nem nyúlok semmihez amihez nem muszáj.
    Amúgy meg egyetlen dolog amire nem elég a 3.2 az a PS2 emu, mert az intelen SSE 4.1 utasításkészletes pluginnal gyorsabb mint a nélkül, a PhenomII meg nem tud 4.1-et. Vagyis a plusz két mag kell hozzá + ugyanakkora mhz, szal úgy 3.6 körül már jó, de 3.8on tökéletes.
    De mikor a C2D alatt leesett az fps 36ra, PhenomII X3 3.4-en (amin néztem hogy érdemes-e cserélnem) csak 46-ra szóval nem egyértelmű itt (sem) a helyzet.

    (NTSCs játékokhoz 60, PALosokhoz 50 fps kell FIXEN különben akad a hang. Igazán beleírhatnának egy felezőt ...)

    Borderlands, Bad Company 2, AvsP, ezek gyorsabbak 4 magos Phenommal sokkal.
    Crysis nem. De azért 24 fps vs 45 fps (BC2 min. fps) azért nem semmi, na. ;]

    [ Szerkesztve ]

    Nekem olyan okos a telóm meg a TVm hogy én már nem rajtuk játszok hanem velük. Társasozni szoktunk.

  • zippofcy

    senior tag

    válasz lsc #6915 üzenetére

    Szerintem az itt levők nagy része egyetért azzal hogy jelenleg a két legjobb ár / teljesítmény arányú kártya az 5850 ill a 275. Legfeljebb a sorrenden mehet a vita :D
    Én 5850re szavazok pedig 275-öm van. Vagy lehet pont azért ? :U ( ;] )

    [ Szerkesztve ]

    Nekem olyan okos a telóm meg a TVm hogy én már nem rajtuk játszok hanem velük. Társasozni szoktunk.

  • zippofcy

    senior tag

    válasz DigitXT #6911 üzenetére

    Akkor lehet épp ez az egységesített architektúra ilyen. De lehet már a 6800as Geforce is ilyen volt csak anno nem volt olyan játék amiben előjött volna.

    Nekem olyan okos a telóm meg a TVm hogy én már nem rajtuk játszok hanem velük. Társasozni szoktunk.

  • zippofcy

    senior tag

    válasz proci985 #6919 üzenetére

    Szerintem is a shader-re várás a kulcs, csak gyengébb CPUval kevesebbet kell várni mert a polygon kipakolás is lassabb.
    De lehet ez az elmélet is hülyeség. Akinek van ideje meg kedve játszadozzon a VGA clockjaival.
    Illetve érdemes lenne megnézni XP alatt is, mert ha ott is csinálja egyértelmű hogy maga a kártya a ludas. (teljesen más az XP képernyő kezelése)

    Nekem olyan okos a telóm meg a TVm hogy én már nem rajtuk játszok hanem velük. Társasozni szoktunk.

  • zippofcy

    senior tag

    válasz Raymond #6924 üzenetére

    "minden csicsat kikapcsolva egy 640x480-as ablakban sokkal rovidebb idore akad meg mint mondjuk 1680x1050-ben a plusz effektek bekapcsolasa mellett."

    Ez pont a shader elméletet igazolja. A fenti két konfigból egyik se tűnik nekem procilimitesnek .. legalábbis nem Furmark alatt. Kár hogy ATIn nem lehet külön állítani a shader clockot :(

    Nekem olyan okos a telóm meg a TVm hogy én már nem rajtuk játszok hanem velük. Társasozni szoktunk.

  • zippofcy

    senior tag

    Furmark alatt 400Wot zabál a gépem ... az 50-el több mint Crysis meg Borderlands alatt. Mivel a tápom 450W-os ezért inkább lelőttem ... jobb a békesség ;]

    Nekem olyan okos a telóm meg a TVm hogy én már nem rajtuk játszok hanem velük. Társasozni szoktunk.

  • zippofcy

    senior tag

    válasz RI/OS #6926 üzenetére

    Új Stalkernél ezerszer szebb meg hangulatosabb az biztos.

    Nekem olyan okos a telóm meg a TVm hogy én már nem rajtuk játszok hanem velük. Társasozni szoktunk.

  • zippofcy

    senior tag

    válasz xEon1337 #6937 üzenetére

    A 10 percenkénti lag az nem video lag hanem net lag !
    A windoz hálózatkezelése miatt van. Nem használja ki az egész sávszélt.
    Guglizd ki hogyan, meg lehet szüntetni. Vmi registrys turkálás. Vagy korlátozhatod a játékon belül de az a rosszabb megoldás.

    Nekem olyan okos a telóm meg a TVm hogy én már nem rajtuk játszok hanem velük. Társasozni szoktunk.

  • zippofcy

    senior tag

    Könnyű kideríteni hogy a VGA kártya-e a ludas az akadásban.
    Húzd lejjebb a procit, addig míg már csökken az FPS. (Vagyis a "dadogó" játék CPU limites lesz)
    Ha azzal megszűnik a "dadogás" akkor a VGA az oka ... mert hogy semmi mást nem változtattál, mégis megszűnt.

    Nekem olyan okos a telóm meg a TVm hogy én már nem rajtuk játszok hanem velük. Társasozni szoktunk.

  • zippofcy

    senior tag

    válasz fsb1000 #7043 üzenetére

    Akkor az én tippem az hogy ugyanazért akad amiért a Guitar Hero is.
    Vagyis a driver és az alkalmazás kódja együttesen.
    Ezt azzal lehetne megcáfolni ha az egy-két kategóriával kisebb Radeonon nem csinálná. (ugyan az alatt a rendszer alatt)
    (sok kategóriát lejjebb menve már a VGA architektúrája is sokban módosul)

    De abból kiindulva hogy a GH az én 4850esemen meg a haver 4870-esén is akadt ... az egyetlen közös a két gépben a W7 x64 oprendszer volt.
    (E8400 + P43, E7200 + P35)
    Esetleg meg kéne nézni XP alatt.

    [ Szerkesztve ]

    Nekem olyan okos a telóm meg a TVm hogy én már nem rajtuk játszok hanem velük. Társasozni szoktunk.

  • zippofcy

    senior tag

    válasz fsb1000 #7045 üzenetére

    Aki 100 ezer HUFot költ a gépe EGYETLEN alkotóelemére az nyilvánvalóan magasról tesz a költséghatékonyságra.
    Nem hinném hogy sokat eladnának belőle ilyen áron. Szvsz ez is csak presztízsmodell lesz, hogy "csak" fél évet csúsztak vele. Ekkora csíkszélességgel gyártva sose fog hasznot hozni.
    Mikor meg a TSMC áttér 35 (32? 25?) nn-re akkor csökkentett áron kijön egy újabb széria (mint a GTC260,275,285 anno)

    Másfél GB textúra ram mekkora felbontás alatt használható ki? 2500x vmennyi? Vagy még nagyobb?
    Hogy vmi jót is írjak a Fermiről, az egyértelmű hogy a tessalationt (ami a DX11 leglátványosabb, és fejlesztői részről legkönnyebben megvalósítható újítása) a Radeonokkal ellentétben játszható FPSek mellett tudja. Más kérdés hogy ennek széles körű elterjedésére (legalábbis míg az x360 az elsődleges játékplatform) nem nagyon lehet számítani.
    De jó vétel lesz a Fermi ... ha majd a 470 ára 50 ezer, a 480-é meg 70 ezer HUFra esik ;]

    Nekem olyan okos a telóm meg a TVm hogy én már nem rajtuk játszok hanem velük. Társasozni szoktunk.

  • zippofcy

    senior tag

    válasz Abu85 #7049 üzenetére

    Abban igazad van hogy nincs ilyen játék. Még ;]
    De az Unigine Heaven heavy tessalation tesztjéből lehet következtetni.
    [link]
    De ahogy már írtam feljebb, lehet nem is lesz ilyen játék még 1 évig. (Dirt2 ugyan már van, de abban alig észrevehető a tess. szal felejtős ebből a szempontból

    Nekem olyan okos a telóm meg a TVm hogy én már nem rajtuk játszok hanem velük. Társasozni szoktunk.

  • zippofcy

    senior tag

    válasz Abu85 #7055 üzenetére

    Szvsz teszteknél az a jó ha szintetikus a kód, mert a cél az hogy összehasonlítsák a különböző HardWarek mennyivel képesek lefuttatni.
    Ha elkezdik optimalizálni akkor jöhet az egyik tábor azzal hogy a másik tábor HWjára jobban ráoptimalizálták.
    De az Unigine szvsz elég jól optimalizált kód. Elég csak összehasonlítani a Vantageval (ez utóbbi természetesen nem az). Beépített vsyncje is van. A lassabb kártyákon is imán megvan 30+ fps, és mellette "szép". (sok polygon, effektek, stb)

    A Metro 2033 viszont ezzel [link] örökre leírta magát nálam.
    Nem csak a magok száma nem számít neki, de a mhz se. Mind1 hogy 2 ghz vagy 4 :Y
    Ha highest settingsben nem 25-30 fpssel menne, azt mondanám 73 fps-ben maximálták a sebességét.
    Így azt mondom Dephiben írta pár gimnazista ;]
    (lehet meg kéne köszönnöm nekik, ha hülye lennék most mutogathatnám hogy azonos órajelen a PhenomIIx4 gyorsabb mint a Corei7 ;] Köszönjük ukránok, ilyen kódot más nem képes írni :U Vagy az a gond hogy az 5870 olyan lassú hogy már egy 2ghzes 2 magos proci is maxon kihajtja? :P )

    Kár érte mert amúgy a játék hangulatos. De a kódja éppúgy elcseszett mint a Crysisnak.
    (tudom, közvélekedés szerint a Crysis nem szar ... de az. Második két magot nem használja, meg kb semmi mást se. Egyetlen HWra optimalizálták (C2D + Radeon).
    Ráadásul a highest settingse is olyan lassú hogy amire optimalizálták HW sem bírja el normális sebességgel. Ez a két dolog együtt azt eredményezi hogy a jövőbeli HWkon is mindig sokkal lassabb lesz mint egy normális kódú játék. Magyarul a kódja szarul skákázódik. Vagyis a kiadásakor piacon levő HWk sem bírták normális sebességgel futtatni max beállításokon, és a rossz skálázódása miatt a jövőbeli HWk se fogják tudni, vagy csak már akkor mikor a jobban megírt játékok sokkal szebbek ÉS gyorsabbak lesznek.)

    Amúgy én nem hiszek ebben a "megvesszük a kódert kilóra hogy a mi HWnkra optimalizálja a kódot" dologban.
    Szvsz megírja egy adott HWra, mondjuk a saját konfigjára (pl. Far Cry 2 erősen előnyben részesíti az Intelt -már persze ahol nem GPU limites- valszeg az SSE4-re támaszkodik) aztán vagy tudása, vagy ideje nincs rá hogy másra is optimalizálja.
    Nem hinném hogy a fél éves játékmegjelenés-csúszások korában lenne arra idő meg kapacitás hogy a fenti kóder beleássa magát a 3Dnow!-ba, csak mert az AMD fizetne neki ...
    Amit meg 5-10 kóder ír az olyan is ... mint pl. a Metro 2033. (csak feltételezés hogy azért lett ennyire lassú meg rossz skálázódású)

    Nekem olyan okos a telóm meg a TVm hogy én már nem rajtuk játszok hanem velük. Társasozni szoktunk.

  • zippofcy

    senior tag

    válasz zippofcy #7075 üzenetére

    Tessék [link]

    Ez alapján egy 5870 alig több mint 3x gyorsabb mint egy 8800 GTX. Egy erősen shaderes meg csilivili meg "korszerű" grafikájú játékban.
    Max beállításokkal 1680 !! -ban meg épp elérik a csúcskártyák a 20 fpst.

    Na az ilyen kód a szégyen, nem az ágybasz@rás! (már bocs :B )

    "Nem skálázódik szarul a kódja." - erre vmi grafikont lécci ;]
    Mert én az ellenkezőjét bizonyító grafikont linkeltem.

    [ Szerkesztve ]

    Nekem olyan okos a telóm meg a TVm hogy én már nem rajtuk játszok hanem velük. Társasozni szoktunk.

  • zippofcy

    senior tag

    Számomra a Metro 2033 simán elmegy DX11-es szintetikus VGA benchmarknak.
    Proci egyáltalán nem számít neki, optimalizálva láthatólag semmire nincs. (az FPS értékekből kiindulva legalábbis)
    Ha már 3Dmarkból nincs DX11-es.
    A Bad Company 2 a legjobb proci skálázódás, a Metro 2033 meg raw VGA sebesség mérésre.
    Csak sajna mindkettőből lehet számolásigényesebb, meg "gyorsabb" részt kiragadni és azon tesztelni.

    Most néztem a Frontlines-t, az is gyönyörűen kihasználja a 4 magot. Egy 2008 év eleji játék. Alig 3 hónappal újabb a Crysisnál, egy mostani középkategóriás konfigon meg mennyivel gyorsabb már.

    Nekem olyan okos a telóm meg a TVm hogy én már nem rajtuk játszok hanem velük. Társasozni szoktunk.

  • zippofcy

    senior tag

    válasz Abu85 #7089 üzenetére

    A skálázódást én HWra értettem. Egy normálisan megírt kód gyorsabb gépen gyorsabban fut mint lassabb gépen.
    Ha a CPU sebessége nem számítana 3Ds megjelenítésnél akkor nem létezne az a fogalom hogy CPU limit. Nem utolsó sorban még mindig PentiumIIeseken tolnánk, az AGPs 5870-esekkel.
    Márpedig ebben a játékban nem számít. Vagy direkt csinálták ilyenre (hogy minden gépen lassú legyen) vagy 90%-ban shader (aminél nem számít a CPU) és csak 10%-ban rendering vagy a kódja borzalmas. Szvsz az utóbbi kettő egyszerre. (sok shader + rossz kód)

    (gyk: nem úgy értem hogy 5870-ből van AGPs, hanem úgy hogy akkor lenne, mert lett volna értelme megcsinálni, mert nem kéne erős proci mellé ...)

    Nekem olyan okos a telóm meg a TVm hogy én már nem rajtuk játszok hanem velük. Társasozni szoktunk.

  • zippofcy

    senior tag

    válasz fsb1000 #7199 üzenetére

    Látod milyen vagy, most miattad nem fogom lecserélni a húzott 275-öm 5850-re, akkor se ha lejjebb megy majd az ára. ;]
    ATI hívők átkozhatják érte a neved (egy nVidiással több) :D

    [ Szerkesztve ]

    Nekem olyan okos a telóm meg a TVm hogy én már nem rajtuk játszok hanem velük. Társasozni szoktunk.

  • zippofcy

    senior tag

    Elég gáz hogy még egy tojást se bír megsütni, a single slotos hűtésű Asus 4850nek fogadok simán sikerülne (legalábbis a kezem csúnyán megégette anno ;] )

    Nekem olyan okos a telóm meg a TVm hogy én már nem rajtuk játszok hanem velük. Társasozni szoktunk.

Új hozzászólás Aktív témák