Hirdetés

Keresés

Hozzászólok Aktív témák

  • VinoRosso

    addikt

    azért a gi-re kiváncsi lennék. Nem tudom ezt hogyan gondolják, de az biztos, hogy brutál számítási teljesítmény kell hozzá. Ha normál( i.e. 25< ) fpseket akarnak elérni vele, akkor a mai karik sehol sem lesznek. Viszont ha elképzelem a crysist most, és még hozzá a real time gi, és az akár alsó hangon elfogadható sebességgel fut, akkor az a látvány beszarás lesz az biztos. Ezen a formális dx11 támogatáson meg nem tudom mit értenek. dx11es apival kódolják a tesszalátort, de majd a proci számolja :F A fizika meg biztos ütni fog CUDA-val. Így is viszonylag jó a cry2 fizikai motorja, de ha a cry3ban már CUDA-t fognak használni, akkor sokkal jobb és gyorsabb is lesz. Viszont tuti, hogy Q2re nem készülnek el vele. Október-november vagy inkább dec reálisabb lehet.

  • VinoRosso

    addikt

    Nem értem, hogy mitől lesz jobb + 512-1024MB ram ddr3-1=ddr2 -től egy kártya :F Ennyire el fog tejedni a phsx meg a cuda? Nagyon ettől olcsóbb nem lesz a kártya, és nem hiszem, hogy játéknál <9800GTX+ a vidó ram lenne a szűk keresztmetszet.

  • VinoRosso

    addikt

    valószínűleg akkor június/július környékén jön a GT212-218 mert az NVnél gyorsan le akarják faragni az architektúrát 40 nmre, és ősszel/tél elején meg a GT300

  • VinoRosso

    addikt

    ki tudja, lehet már régebb óta dolgoznak rajta...elvégre már tavaly november környékén felreppentek olyna hírek, hogy mácrius áprilisra az nvé lesz az első 40nmes gpu. Ebből nyár közepére összehozhatnak valamit akár.

  • VinoRosso

    addikt

    A G80 az egyszerű számításokra tervezték, és a bonyolultaknál, valamint a sok ideiglenes adatta dolgozó grafikai számításoknál megfekszik. Ez R600 kvázi a rendszer ellentéte. Ha sok függőség van a kódban, akkor nem egy erőgép, kevés függőséggel már sokkal jobb a helyzet. A bonyolult feladatokat meg imádja.

    Ebben nincs egy hangyányit ellentmondás? Ha valamiben sok függőség van az bonyolult, amiben kevés az egyszerű. Ha gondja van a függőségekkel, akkor nem szeretheti a bonyolult feladatokat. Ez egyébként minden GPUról elmondható kivétel nélkül, mivel mindegyik adatpárhuzamos architektúra, méghozzá masszívan.
    A különbség a G80 és az R600 közt annyi, hogy a G80 durvább szemcsézettségű, TLPhez közelít, míg az R600 ILP inkább, valamint a G80 ütemezője miatt nagyobb fokú párhuzamosságra képes, viszont lassabb az ütemezési költségek miatt. R600 gyors floatban, de kb itt meg is áll a tudomány, és emiatt ha valamelyik inkább GPGPUnak mondható akkor az R600 az, mert tipikusan ezekben a számításokban fordul elő masszív párhuzamosság, ahol az r600-at ki lehet pörgetni. Grafikában a béka segge alatt van, jó architektúra, de arra nem való, hogy n+1 direkt/indirekt fényforrásból lombkoronán átszűrődő, vízben megcsillanó és párában elhalványuló csilli villi sunhaft effekteket számoltassanak vele . De mondjuk mintafelismerésre, keresési / adatreduckiós feladatkora kiváló. A kettő közül az r600 a "butább", méghozzá jóval.

  • VinoRosso

    addikt

    Miért lenne feltétlenül bonyolult az amiben sok függőség van?

    Próübálj meg rá sw-es ütemezőt írni, aztán meglátod :D ( nem egyszerű alacsony költségű algoritmust kreálni ilyenekre)

    A folding az meg csak 1 alkalmazás, másik 10ben meg pörög mint a búgócsiga. Mint említettem minden GPU masszívan párhuzamos számításokban tud villogni, ahol nagy mennyiségű független adaton kell ugyanazt az egyszerű műveletet végrehajtani. Olyan meg hogy nincs függőség olyan nincs( utasítás vagy vezérlés függőség mind1.. ) :N A függőség nem architektúra fícsör, hanem egy probléma sajátossága, az hogy ráhúzod a legjobb algoritmust, és ebben is vannak fix lépések, amiknek meg kell előzniük a másikat. Ilyenkor nem lehet párhuzamosítani egyetalán, tehetsz alá akármilyen vasat, hacsak nem képes időutazásra, nem fog javítani a telesítményen. Ameddig kauzalítás van, addig pedig lesz mindig ilyen, és minden kódban van ilyen. Az ütemezővel annyiban lehet javítani a helyzeten, hogy ha nincs akkora fokú párhuzamosság egy kódban, hogy kihasználja a telejes számítási kapacitást, akkor a maradék lazsáló sp-oknak lehessen melót osztogatni.Geometry shadert leginkább + sp-kkel lehet gyorsítani, ezért jobbak benne a radeonok, 300 körüli sp számmal már r600 szinten lenne a g80 is. Dx10.1 nem azért nem támogatja véleményem szerint az NV mert mindenképpen a CUDA-val akarja kitúrni a DX-et, hanem egyszerűen nem éri meg nekik. Sima anyagi okai vannak, előre teveztek egy olyan architektúrát 3-4 évvel ezelőtt, amivel az akkori és a közeljövő alkalmazásai széles körben jó teljesítményre képesek voltak, és egy csomó óvét bezsebeltek vele. Ekkor sehol sem volt még a dx10 sem, nem hogy a dx10.1. Idén kezd kijönni a hátránya ennek, de nyilván 3-4 évig nem a pénzeszsákokon ültek, hanem közben dolgoztak egy teljesen új architektúrán. Ennyi idő pedig elég sok probléma felfedésére és megoldására elég . G80ból ezalatt kipréselték amit lehet, ősszel meg már jön egy dx11-es architektúra, és amit felhozol hátrányként a G80 ellen az szerintem jó eséllyel el fog hervadni mint a rózsaszál. Nem értem mindek fikázod már jó előre azt amiről még fogalmad sincs( illetve tudom, ez a fanatizmus :D ) , és hogy honnét veszed, hogy megoldhatatlan feladat az nvidiának egy zsír dx11-es chip gyártása. Ha pedig dx11ben jó lesz, nagy valószínűséggel ugyanolyan jó lesz dx10.1ben is, de hogy milyen dx10.1ben az szerintem addigra már senkit nem fog érdekelni.

  • VinoRosso

    addikt

    Nem grafikára lesz, ahogy a G80 és a GT200 sem arra van

    Fura hogy ezt mondod a a G80 vs R600 kapcsán. Nem azért de Te teszteket néztél? ( bocs de úgy érzem ezek után nekem is kell modnanom valami cifrát :D ) Gyakorlatilag az atinak rv770 proig nem volt olyan GPU-ja, ami megszorongatta volna a 8800GTX-et. Így akárhogyis nézzük, egy 1,5-2 évig egyeduralkodó chipről mondtad azt, hogy nem jó grafikára. Kiváncsi leszek, hogy lesz e valaha még ilyesmire példa( én nem emlékszem, hogy ezelőtt lett volna ) Kérdés az is, hogy akkor a többi kártya mire való? Mondjuk egy rv670XT pl, ami sokáig még a G96ot se tudta kiütni a nyeregből. :U Egyedül a GT200-al voltak poblémák, leginkább fogyasztás és ár miatt, nem pedig a teljesítménye szempontjából, mivel még mindig ez a legerősebb GPU.

    [ Szerkesztve ]

  • VinoRosso

    addikt

    Nézd én abban nem viztázom veled, hogy hogy dx10.1 alatt a radeonok jobban mennek mert ez tény. Sőt még sima dx10 alatt is ha kizárólag a GS fázist nézzük(bár ugye a dx10 igazából nem a GSről szól) Én csak annyit mondtam, hogy ha gyártó vagy úgy kell gondolkodnod hogy minél több hasznot zsebelj be. Az NVnek meg így volt a legnagyobb haszna, hogy megcsinált egy 2006ban korszerűnek számító architektúrát, amivel 2 évig uralta a piacot, és amig lehetett húzta. Addig húzta, hogy nem volt szüksége arra, hogy egy dx10.1es magot gyártson, ha nagyon muszály lett volna meglépi, de felesleges, szerintem már kb 1-1.5 éve eldönthették, hogy inkább dx11re gyúrnak, addig meg kihúzzák a meglévő architektúrával. És én ezt teljesen logikusnak látom, ha én is csupán az anyagiakat tartanám szemlőtt, én sem csináltam volna másképp, mert ez vlószínűleg optimum, jó dx10.1es chiphez át kellett volna szabni az egész architektúrát, és ezt fél-egy éves huzavonáért nem érdemes. Inkább megvették a aegia-t és így kb ugyanúgy konkurrál6nak a dx10.1-el, ez bőven elég volt ahhoz, hogy a dx10.1 ne terjedjen el. Igaz én személy szerint annak örültem volna a legjobban, ha piacra dobnak egy dx10.1es GPU-t, és akkor nem lenne miről beszélni. Dehát ez van, szivem szerint se win-t, se dx10-et nem használnék, de sajna nincs választás, mivel ez a mainstrean.

  • VinoRosso

    addikt

    teljesen jogos a felvetés, ha konzol-pc pc-konzol portok léteznek, akkor nem nagy kunszt játékot fejleszteni linuxra. Az ok egyszerű, nem éri meg vele vesződni (anyagilag).

  • VinoRosso

    addikt

    Ne haragudj de annyira nincs kedvem válaszolgatni a fanatikusok hozzászólásaira... :( csak tudnám, hogy külföldön miért nincsenek ilyenek??? Miért csak hungarian feature az efféle észosztás. :W, nincs még egy ilyen nemzet a földön, az biztos. Ráadásul még akik valamit hozzá is tudnak szagolni a témához, még azok is ferdítenek egy csomót, hogy jó színben tűntessék fel a rajongott gyártójukat. Én csak tényeket vázoltam, hogy az nv jóval több pénzt keresett így, mintha folymatosan fejlesztettek volna. 2006 novemberében jött ki a 8800GTX ennek 2008 júniusáig nem volt ellenfele, 8800 GTS és később a helyére érkező 8800 GT 2006 novtól 2008 júniusig ár/érték arányban is a legjobbak voltak, ezt mintha figyelmen kívül hagynátok. Ha ezek a kátyák nem voltak jók grafikára, akkor a felső becslés miatt az összes alatta lévő kártya( ergo az r600is ) alkalmatlan volt grafikai munkára. Szerintem egyik semm alkalmatlan különben nem venné meg senki, egyszerűen csak arról van szó, hogy az nv-nél nem fél évekre terveznek, hanem 2-3 éves ciklusra, és kidobnak egy értékálló chipet, amiben van annyi, hogy évekig profitálhatnak belőle. Pont emiatt gondolom azt, hogy ha ismét előhozakodnak egy új architektúrával, az megint akkorát fog szólni, hogy évekig ellesznek belőle. Attól még hogy 512 sp van egy choben, nem feltétlen kell nagynak lennie. A radeonban 1200 lesz mégsem pattog egyikőtök se, hogy hú majd milyen nagy lesz a magméret. Nem hiszem, hogy megoldhatatlan feladat a tranyószám redukálása, senki nem mondta, hogy a jelenlegi architektúrát fogják továbbvinni, sőt ha visszagondolunk 192 bites kártyákról érkeztek hírek korábban, tehát sejthető, hogy jelentősen faragnak az előállítási költségen. Merem feltétlezni, hogy egy akkora szellemi tőkével rendelkező vállalat, mint az nvidia képes felfogni azt, hogy mi mennyire éri meg neki. 10000% hogy ők sokkal jobban átlátják a helyzetet amiben vannak, és nálam és nálad okosabb közgazdászok tömkelege áll a rendelkezésükre, hogy kikalkulálják mi éri meg nekik a legjobban. Azt az agyrémet meg nem tudom honnét szültétek, ha valami jól működik általános számításokban, az nem lehet jó grafikára. G80 ráaz élő példa, vezető chip volt mindkét szegmesben éveken keresztül. De említhetném az r700at is. Egy chip "jóságát" elsősorban az határozza meg, hogy milyen alkalmazásokat futtatnak rajta, illetve hogy mekkora az a spektrum, ami alkalmas lehet a optimalizációra ezeken. Mindkát chip annak ellenére, hogy teljesen más felépítésű, ha megfelelő célra alkalmazzák, nagyon jó lehet általános alkalmazásokra. Kb olyan ez mint a 3D, ott is van amelyik az egyiknek van amelyik a másiknak fekszik inkább. A GPGPU alkalmazások köre pedig elég tág, ez nem directx, a jelfeldolgozáson keresztül az ip csomagszűrésen át a klímakutatásig mindent lehet...

  • VinoRosso

    addikt

    DX10.1 alatt nézzük a dolgokat akkor kb. 20-25% előnye van egy GTX285-höz képest az RV790-nek.

    persze főleg fc2ben meg clear skyban, ez már akkkora LOL, hogy nem bírom ki

    Az AMD az RV790-et nem is a GTX285 ellenfelének szánta hanem a GTX260 (216-os) ellen és ez sok mindent elmond..

    na és gtx275 ellen mit szánt, talán a 4870 x2-t? Csak nem tudom, hogy akkor a feljebb lévő 3 kártya ellen mit szán? Meg hogy miért késett fél évet a 4890-el, miért a gtx275-el egy időben jött ki...elvégre a gtx260 már elég régóta kinnt van. Ja és hogy mi értelme van versenyzőt harcba küldeni olyan elllen, ami ellen már van versenyképes termék(4870). És biztos hülye az a sok külhoni harveroldal, amiért olyan sok GTX275 vs 4890 tesztet csinálnak, mert nem tudják, hogy a GTX 260 ellen küldte harcba az ATI.

    De az én véleményem ettől még az, hogy mind szar, agymosott, marketingdumás

    ________________K__________A__________M___________U_______________________

  • VinoRosso

    addikt

    El vagy tévedve, a stormrise nem a dx10.1 miatt fekszik az ATI kártyáknak hanem a GS miatt. Ez nem új keletű dolog, hiszen a CoJ-ben is volt, és ott is nagy az előnye az ATIknak, pedig nem dx10.1es, hanem csak simán dx10-es render. Ha dx10.1et akarsz hasolnítani, akkor fc2 vagy CS-t is illik figyelembe venni, ezekben nincs GS, viszont van mondjuk egy olyan godrays effekt, ami a jelenlegi videókártyák mindegyikét megfogja, és érdekes módon dx10ben és dx10.1ben sem jobb az ATI az nvivdiánál ebben. Egész egyszerűen azért mert nem buta shaderigényes számolás, hanem egy komplex algoritmus van mögötte, ami a geforcoknak fekszik inkább. Sőt dx9ben is lehetett olyan eljárásokat használni, ami a sok sp-t tartalmazó kártyáknak kedvez.
    De most van pár játék, amiben GS-t használnak, ami egyébként szerintem nem egy rossz dolog, csak az enm tetszik, hogy ez alaján akarják megítélni az összképet, ami ennél sokkal árnylatabb, aztán amikor közli az ember a tényeket, akkor leharapják a fejét. Nyugodtan fel lehet hozni a PhsyX-et példának, mert kb annyit számít a futási teljesítményben, mint a GS, mégse sipárgott senki, mikor az nvidia megvette az aegia-t hogy hú most vége az atinak. Ráadásul itt már készen voltak a játékok, nem kellett rájuk várni, és nem is akármilyen játékok voltak, pl GRAW1-2, Rainbow six Vegas, Mass Effekt, Cryostatis, vagy pl az UT3 és a motorjára épülő játékok, GOW, Mirrors Edge stb.. nem sorolm fel mindet, nézz utána hogy hány játék készült phsx-el, sokkal de sokkal több van már most, mint amennyi dx10.1es lesz év végéig. Bár addig szerintem nem kell várni a GT300ra, szerintem okóberben piacra fogják dobni, igaz ez csak tipp, és nem azért mert nv fan vagyok, vagy mert jóindulatú vagyok az nvvel szemben, nem...azért mert azt látom, hogy nagyon régóta nem volt érdemi újítás a nvidiánál, ebből arra lehet következtetni, hogy valamin nagyon dolgoznak a háttérben, mert bőven pénzük meglett volna rá, és hülyék lettek volna 25x átmatricázni egy kártyát, hacsak nem valami miatt le voltak kötve az erőforrásaik, és kötve hiszem, hogy azon filóztak volna, hogy neon vagy cyberpunk zöld színűre cseréljék a matricát a kártyájukon. + nem egy info lett megszellőztatve már idáig, hogy radikálisan növekedni fog az SP szám, és radikálisan csökkentik az előállítási költségeket. Nyilván így van, mert ők is tudják, hol vérzik el a jelenlegi rendszer, és minden valószínűség szerint azon voltak az évek során, hogy ezt kijívítsák. Ebből a G80 óta semmi nem látszott, csak növelték az SP számot, valamint arra mentek, hogy minél előbb utolérjék gyártástehcnológiában az ATI-t, ami őszre teljesülni is fog, valamint hogy redukálják a fogyasztását a kártyának. Nem tudom foigyelted e, hogy az általad említett 1,4 milliárd tranyós 55 nm-es változata kevesebbet eszik a sokkal soványabb rv770xt-nél. Szvsz ez sokkal nehezebb feladat lehetett, mint a GT300 feljesztése, mert nagyon rövid idő alatt kellett jelentősen csökkentenia mag fogyasztását. Közben meg kijött az rv790, és ez a feladat az ati számára megoldhatatlannak bizonyult ugynazon csíkszélességen, a növelt órajelnek köszönhetően többet zabál már mint egy GTX280, és teljesítményben is ugyanott van, és érdekes módon most nem vinnyog egyik ati fan se, hogy hú mekkora fos ekkora fogyastással ilyen teljesítmény fú...közbe meg várják a 4890x2-t, hogy milyen jó lesz majd, anno meg teljesen elképzelhetetlennek tartották a 280Gx2-t mert hogy az annyit eszik hogy nem lehet megcsinálni. Ilyenkor mondom azt hogy :W :W :W GTX285 ami fogyasztásban teljestményben is jobb, egyedül az árával vannak problémák, valamit azzal hogy nem támogat dx10.1-et. Őszre dx11-el az az 5-6 játék ami kijön is el fog futni dx10.1ben geforcon is, tehát ezt a piaci előnyt közel sem érzem jelentősnek, ha meg árban is sikerül versenyre kelni az atival, akkor bizony az r800 lesz bajban a 1200 SP-orával a 3,1 Terás GT300 ellen. Pár hónappal ezelőtt még csak gonolni se mertem ekkora lebegőpontos teljesítményre, igaz már akkor is hallottam, hogy az nv nagy dobásra készül, és mondtam is, ha nem 1200 körüli sp számmal jön a 4890 akkor őszre nem fogják tudni hozni az 1600 sp-t, ami ahhoz kellene, hogy versenybe tudjanak szállni a gt300al. Akkor Abu szokás szerint ösztönből lehurrogott, hogy miért ne lehetne 800 spről egyből 1600ra vagy 2000re váltani, nem kell a fokozatosság...ráadásul most kiderült, hogy 1600 sp sem lenne elég, mert az csak 2,4TFlops, és így a GT300 + 0,7 Tflops előnyben van, ami egy GTX260-nyi többletet jelent, ez azért már nem elhanyagolható.

  • VinoRosso

    addikt

    Nem csalódtam az atiban, bár több ati kártyával volt gondom mint nvdiával, vagyis inkább az ati driverekkel volt problémám. Nem fogom én egyiknek se a pártját Isten ments, csak nem bírom, ha valaki szemellenzőt hord, és közbe oltogat a hülyeségeivel. Az éremnek mind2 oldalát illik figyelembe venni, ha teljes képet akarunk kapni, és sokan hajlamosak megfeledkezni olyan dolgokról, amik számukra nem szinmpatikusak, és extrapolálni a kedvező részleteket, mintha azok az kép egészére jellemzőek lennének. Amúgy én elég sűrűn váltogatom a kártyáimat, részben anyagi okokból, részben meg ez a hobbim. Idén idáig volt 3 ATI és 3 Nvidia, szóval tényleg senki nem mondhatja, hogy bármelyikkel szemben is elfogult lennék. 3850el tökéletesen meg vagyok elégedve, de sajnos úgy hozta a sors, hogy meg kell szabadulnom tőle :( . 3870ből volt 3 darab, midn3 esetében rengeteg problémám volt a driverekkel, pedig az első és az utolsó közti intervallum 1 évet felölel, leszámítva 1-2 drivert az összes katát kipróbáltam ami az elmúlt 1,5 évben kijött. Volt még egy 3650em is idén, az sem volt rossz, de inkább olcsó volt mint jó :D , ezzel semmi gondom nem volt, simán fel lehetett húzni 3670 szintjére sőt még tovább is, de komoly grafikai munkára ez nagyon harmatos már. Tavaly még volt 4850 ez elég is jó volt, semmi problémám nem volt vele, addig amig meg nem pusztult 2 hónappal vásárlás után egyik napról a másikra, és mivel nagyon sok ismerősöm ugyanígy járt, ezért gariból visszajövő kártyát lecseréltem egy 9600GTre inkább. Volt még egy 3870 CF-öm, életemben nem szívtam annyit VGA-val, mint ezekkel p35ben, 2 hétig voltak meg aztán lecseréltem egy GX2re. Az se volt túl jó, úgyhogy azt meg 8800GTXre cseréltem, le meg volt még 8800GTS-em( G92 es) de a kettő közül inkább a GTXet tartottam meg mert stabilabb fps-eket produkált, aztán hébe hóba cserélgettem még egy csomó kártyát 8400GStől 8800GTig bezárólag szinte mindent, ezeket nem írom le mert megőszülök, mire vége lenne. :D

    (#254) Dare2Live ;)ersze hogy marad6, egyelőre minden nyitott, ezért bármilyen kijelentés csak esélylatolgatás, hogy ki nyeri a BL döntőt, bár az már nagyobb valószínűséggel sejthető. ;]

    [ Szerkesztve ]

  • VinoRosso

    addikt

    Igen ezeket már mind ismertem, tele van vele a padlás, hogy miért nem olyan jó dx10.1 alatt a radeon ezekben a játékokban. Igazából magyarázatnak elfogadható, de a tényeken nem változtat. Van 2 játék amiben jóval gyorsabb az rv670< radeon a konkurrens geforcenál a gs miatt, és a többiben meg ugyanolyan fps-t hoz a geforce, vagy jobbat dx10. alatt. Ez nem azt jelenti, hogy nincs előnye a dx10.nek a dx10el szemben, ez a száraz tény csupán. Azt hiszem az is tényként kezelhető, hogy legalább ennyi előny( ha nem több ) is van a pshx-es játékokkal az nv-nek. Lehet, hogy a physx el fog halni ( bár ezt még nem lehet 100%osan kijelenteni ), de abban biztosak lehetünk szerintem mindannyian, hogy előbb fog elsorvadni a radeonok dx10.1 miatti előnye Physxes játékok idén is jönnek, meg jövőre is, viszont az ati előnye csak a GT300 fog tartani a dx10.1el, ami lehet h ősszel már meg is jelenik, ergo van 6 hónapja hátra. kiváncsi leszek, majd jön e physxes dx11-es játék, mert akkor könnyen előfordulhat, hogy visszanyal a fagyi az atinak( pl ha mondjuk a crysis 2 lesz az ).Mindenesetre én a Metro 2033at nagyon várom, mert a GSCből kivált fejlesztőkre épülő csapat csinálta( bár emiatt nem vagoyk benne biztos, hogy ki fog jönni idén ;] ), a Shadow of Chernobyl meg a kedvenc játékom volt. BTW ez dx9es gamma lesz, ennek ellenére elég szépnek igérkezik, legalábbis az előzetes videók és screenshotok alapján. Ha úgy fog futni legalább, mint a stalker anno, akkor szerintem hardvergondjai sem lesznek, mivel azóta a vasak eleget fejlődtek.

  • VinoRosso

    addikt

    Egy DX11-es játék szebben néz majd ki és gyorsabban fog futni a DX10.1-es Radeonon, mint a DX10-es GeForce-on

    naná, mivel a dx10es geforcok nem támogatnak dx11-et. Ez kb olyan mélyenszántó gondolat, mintha azt mondanád hogy a sas gyorsabban repül a struccnál. De a GT300 mióta dx10es? :U

    Ha lehet úgy fogalmazni jelenleg az NVIDIA játékokat vesz ..

    Nem jelenleg, ez mindig is így volt. De nem csak az nvidianál van ez így. Elég csak a doom3/HL esetére visszagondolni. Lobbi mindig is volt/van/lesz, nincs ezzel semmi gond, amig van lehetősége választani a fejlesztőnek és a felheasználónak. Majd amikor nem lesz, hanem azt mondják hogy ezt kell használnod, mert nincs más, akkor lesznek gondok(illetve ott vannak)...

    A Crytek sosem fog Physx-et használni. Maga a Boss mondta

    Yerliék ilyet szóltak volna? mikor? Melyikük mondta? Furcsa ezt így hallani, mert szerintem elég szoros kapcsoaltban lehetnek az nvidiával ahhoz, hogy legalább elgondolkodjanak a phsyx használatán. Pláne most, hogy az erőforrásaik nagy részét
    konzolos fejelsztésre fogják fordítani.Alapjában véve nincs semmi gond a cry2es fizikával, viszont állítólag elég "kusza" a kód, és sokba kerülne rendbettenni. hogy újrafelhasználható legyen, vagy nagyobb mértékű változtatást hajtsanak rajta végre. Nem lepne meg, ha elkezdenék használni a phsyxet, mert lehet, hogy anyagilag jobban kijönnek vele, mint egy reakftorált felturbózott cry2es fizikával. Arról nem is beszélve, hogy mennyit gyorsulna tőle az engine. Azt meg gondolhatod, hogy ha a cry3 physxel fog kijnni, az mennyire megéri az nvidiának. Bizony nem csodálkoznék azon, ha már felhozták volna nekik a témát a zöldek.

    Miért támogasson egy fejlesztő egy olyan technikát, ami a többségnek nem áll rendelkezésre.

    Csak hipotetikusan:

    Az nvidia ősszel piacra dob egy dx11es VGA-t, ami legalább ugyanolyan jó lesz árban és teljesítményben, mint a konkurrens temék. Ezesetben nem beszélhetünk sem a dx10.1 támogatás hiányáról, sem arról, hogy kevsé nvidia kari van a usereknél. Erre értettem azt, hogy visszanyal a fagyi, mert ha az nv lobbinak sierül bezsebelnie egy két neves játékot phsyx támogatással, akkor az ati lesz abban a helyzetben, amiben most az nvidia van, mert userek tömkelege fogja venni az nv karikat azért, hogy hiperszuper robbanásokat lásson, szétpüfölhesse a berendezést, ementáli sajtot csináljon a falakból, roncsderbit játszon a kedvenc hummerével stb...lefogadom hogy akkor is lesznek majd olyanok, akik azt mondják hogy az a csúnya ati nem támogatja a physxet, pedig az milyen hiper szuper jó cucc, de az ilyenektől áll az égnek a hajam. Ez a verseny, és ez így van rendjén, az ati a büdös életbe nem fog támogatni semmit, ami az nvidiától jön és vica versa. Enélkül nem lenne fejlődés, hanem szépen megszületnének a paktumok a hátunk mögött. Így viszont mindegyik gyártó fejlesztésre van kényszerítve,a mi nekünk csak jó. Na most...játékokat feljeszteni nem pár hónap, hanem egy hosszú fáradságos folymat. Aki pénz szerez egy ilyenre, és engeriát áldoz rá, az igyekszik minél tovább elnyújtani a termék életciklusában a gyümölcsöző szakaszt. Vagyis biztosra vehető, ha most jön egy csomó dx9es játék, és éppen csak szálingóznak a dx10.1re épülők, és ősztől már elérhető lesz a teljesen dx11, nem lesz túl sok játék, ami kimondottan dx10.1re alapoz. Ergo arányaiban sok dx9es játék volt/van, kevés dx10/dx10.1, és sok dx11es fog készülni. Az nv nem csinál mást, csak követi ezt a hosszú távú trendet, ezért hosszú távú stratégiát alkalmaz, ezért csinál komplex chipet, ezért akar x86os liszenszet, mert nem félévekben gondolkodik. Az atinak meg egyszerűen nem volt más esélye, csak az, hogy rövid távú stratégiát kövessen, mert szorongatott helyzetben volt a g80 miatt, és az amdtől sem jött úgy a jatt, mert K9-et meg a c2d szorongatta. Akkor is egy csomóan temették az amd-t meg az atit is, érdekes módon nem mentek csődbe, pedig közel sem voltak olyan tőkeerősek mint az nvidia. Ezért kevés esélyét látom annak, hogy az nvidia kiszálljon a grafikából. Ha ki akarnának szállni, akkor nem ölnének dollármillliókat egy olyan architektúra elkészítésébe, ami elve nem lehet sikeres, hanem szépen felállnának, és azt mondanák, hogy mostantól kezdve ezt meg ezt fogjuk csinálni, mert nem fogunk labdába rúgni itt és itt, ahogyan tette pl az abit. Ráadásul ők elég jó lapokat csináltak, csak nem érte meg nekik a gyártás, és simán relaizálódott bennük, hogy ha folytatják nem sok babér terem nekik. Tartom annyira az nvidiát, hogy képesek efféle ésszerű döntéseket hozni, és mivl nem hallani semmiféle kivonulásról, ezért puszta rosszindulatnak tételezem fel az efféle találgatásokat azoktól, akik valamiért fújnak az nvidiára, realitás alapja szvsz nincsen. Ha majd felszáll a vörös köd, és kitisztulnak a gondolataid, akkor te is meg fogod érteni ezt, mert nem egy bonyolult dolog, másrészt meg nem vagy egy idóta, csak elfogult.

    Nem tudok olyan technológiáról, amit nem végzett volna ki egy független platformra épülő.

    Mint tudjuk a directx MS független, multiplatform szoftver, ezért kell minden egyes új dxnél is új windowst feltenni. Persze...

  • VinoRosso

    addikt

    Csak pár dologra reagálok mert nincs túl sok időm.

    Tévedés a gyártók nem vesznek játékokat.

    Mi a véleményed erről?

    ATI and Nvidia are now willing to go even further to ensure popular games are optimized for their respective chip architectures. For example, Nvidia sponsored Doom 3, and ATI spent a reported $6m[citation needed] on Half Life 2.When Doom 3 was released, unsurprisingly Nvidia held a large performance lead. ATI analyzed the code, and found shader calculations were being performed manually through a look up table, to compensate for the relatively poor performance of the FX series in this respect. Through application recognition, on the x800 card ATI reportedly found a 30% speed gain[citation needed], just by moving shader calculations to hardware. To this extent, the question of who has the best graphics architecture, is becoming ever harder to answer, as with the increasing complexity of GPUs, performance becomes ever more optimization specific.

    A Crytek a saját érdekét nézi, az NV-t kb. leszarja

    Én úgy tudom, h napi szintű kapcsolatban vannak.

    És a DX az melyik grafikus processzorgyártóhoz kapcsolható? Azt az MS fejlesztette, ahogy leírod, aki nem gyárt grafikus processzort ... ergo a cég totálisan gyártófüggetlen (bár durván AMD puszipajtás, de ezt most hagyjuk ) a PC-s játékpiac életben tartása a célja.

    Ettől még nem lesz plattformfüggetlen.

    Az informatikában platform alatt olyan hardver- és/vagy a szoftverkörnyezetet értünk, amely meghatározza, hogy az adott számítógépen milyen egyéb programok használhatók

    A szoftverkörnyezet legalább olyan fontossággal szerepel a definícióban, mint a hardverkörnyezet. DE! a direcx szoftver, nem hardver. Ezért teljesen irreleváns arra hivatkozni, hogy platformfüggetlen azért, mert széleskörű a hardvertámogatása. DX-es hardvert lehet emulálni szoftveresen, és ha van elég processzor, akkor még normális teljesítménnyel is futnak a dx-es alkalmazások. Erre készül pl az intel, és a tualatin pedig nem kifejezetten dx kombatiblis. Tehát a hardvertől egyetalán nem függ, hogy használható e a dx vagy se. Viszont szoftverkörnyezettől nagyon is függ, mert kompatibilis Wint nem fogsz tudni emulálni sehogyse, ezért nem lehet Xpre dx10, Vistára dx11. És attól sem lesz plattformfüggetlen a dx, ha 20x leírod ugyanazt. Lehet hogy valakibe bele tudod sulykolni, de ez ettől még ugyanolyan hazugság marad. Amúgy teli van hasonló technológiákkal az IT, és még azt sem mondhatom, hogy csak körül kéne nézned, mert a dx is az orrod előtt volt, meg a pár hsz-el korábban említett(!!!) .NET is szintén ilyen, ami a Java MS megfelelője. Szóval itt már kapásból volt 2 dolog, OGL + Java vs DX + .NET ami cáfolja az állításod. Érdekes egyébként, hogy pont a MS az, aki a kezdetektől fogva arra épít, hogy ellop egy ( eseteknént független ) technológiát, aztán mintha ő találta volna fel a spanyol viaszt úgy promótálja, és utána próbálja kiszorítani vele a piacról az eredeti konkurrensét, amiről koppintott( lásd CP/M vs DOS, OGL vs DX, Java vs .NET ) Ennél nagyobb bakot nem is lehetne lőni, mint azt állítani, hogy a MS valaha független terméket gyártott, vagy gyártani fog. A nyakamat merném rátenni, ha belefognának a vga gyártásba, csak az általuk készített vga-n futnának el a játékok win alatt.

  • VinoRosso

    addikt

    nem egyszer ajánlanak neki Nv-s gépet,mert az informatikusok tudják,hogy lehet hogy félév múlva kevés lesz a karjában a kraft,és ezért újat kell neki venni

    jófajta magyar emberek :W hogy rakná seggbe az ilyet egy vagon kanmajom :W

  • VinoRosso

    addikt

    nem tudom megfigyelted e, de driverek nélkül egészen gyors a vista. Sőt még talán a VGA drier se lassít rajta sokat. Viszont mikor felteszem a chipset drivert, főleg a marwell AHCI -t rohadtul belassul. Bár lehet ebben a MS is ludas, mert win7 alatt ez már nincs, de gondolom azért a driverek készítőit is terheli némi felelősség.

  • VinoRosso

    addikt

    de ha megtartottam volna az E6600@3,6GHz+8800GTX-et még mindig tudnék maxon játszani mindennel.

    Crysis, Warhead, Clear Sky, GTA IV... :U

  • VinoRosso

    addikt

    mit jelent az hogy megy? mi az h max grafika. Nálam a max grafika az, hogy mindent maxra állítasz, ergo full AA&AF. Szerintem így még 1680x1050 sem lenne meg az átlag 30 fps ezekkel. Talán a 20.

  • VinoRosso

    addikt

    Nem igazán. 24 fps átlagban. Tudom, mert volt 8800GTX-em és 650/17xx/1000-en ment ennyivel a Crysis. Ugyanezeken a beállításokon egy kis tweakkel vittem végig, amivel meg volt a 30 fps, átlagban, most így fejből nem tudom miből kellett visszavenni mert valami leszívott 5 fps-t. Erősen VGA limites játék, 3,2Ghzes quadnál több nem kellett neki. AA-val visoznt már 20 fps lett a 30ból, 4x-el 15 :(. De még mielőtt valaki azzal jönne, hogy ne a gyevi bírót hozzam fel példának, az Xray 1.5 még ennél is durvább. Max grafon 700/1100-es 4850-el 17 fps AA és AF nélkül sunshafts alatt. Valójában ez csak a reggeli órákban van így, de a fejlesztők kikapcsolták ezen kívül az effektet, mert nincs az a hardver, ami elvinné. Illetve láttam egy fejlesztői vedót, amiben be volt kapcsolva, és rohadt jól futott, nem tudom h az alatt milyen vas lehetett. Tweakkel be lehet kapcsolni állandóra, rohadt jól néz ki vele a játék, de rohadt lassú is egyben. Az igazsághoz hozzátartozik, hogy lehet durvább beállításokat is eszközölni a crysisra, igaz azt már editorból kell a pályán, de ezekre nincs szükség, mivel azóta se született ilyen szintű grafiával megáldott játék meg nem is lesz, míg ki nem jön a cry3.

    Van is egy kis gyűjteményem azokról a képekről, amik cryengine2 vel készültek, és kivételesen jónak találtattak a szememben feltöltötem, ha valakit érdekel:

    1 2 3 4 5 6 7 8 9 10 11 12

    a végére egy kis poén :D

  • VinoRosso

    addikt

    jaja és az "csak" egy erdő karakterek, járművek, épületek, és miden egyéb nélkül :U

  • VinoRosso

    addikt

    Egyik kép se kamu crymodról van mindegyik, a legutcsót leszámítva, az egy ruszki oldalról van. Az eddig nem tűnt fel senkinek pedig az a legérdekesebb. A cryengine kifejezetten ilyen photoreal renderre készült, láttam egy promo anyagot, amiben kivetítőn kellett összehasonlítani a valódi és a renderelt képeket...nem volt egyszerű eslő látásra. A promo anyagot nem találom viszont ezek a képek voltak:

    1 2 3 4 5 6 7 8 9 10 11 12 13 14

  • VinoRosso

    addikt

    áá lejárt a mod idő offba akartam rakni de már nem tom, no mind1 késő van már :o

  • VinoRosso

    addikt

    Miért egy 1950 proval nem indul a játék? :F Teljesítményben ugyanott van ahol a 2600XT.

  • VinoRosso

    addikt

    Áhh szerintem úgy fognak váltani az emberek win7re, mint a mesében. Nem si emlékszem olyanra, hogy valaha lett volna olyan, hogy egy béta oprendszer hónapokkal a megjelenés előtt ennyire elterjedt lett volna. Az ismerőseim közt is még aki eddig óckodott a Vistától, és Xp mellett tartott ki, egyből ahogy megjöt a béta híre feltették és nem csalódtak.

  • VinoRosso

    addikt

    azért azzal várjunk még. win7 - dx közti korreláció nem lehet nem lesz annyira tuti mint ahogyan azt várják, pl Vista + dx10 vonatkozásában hasonlókat lehetett elmondani, aztán se a Vista nem tudta behozni a dx10et, se a dx10 a vistát, bár ez utóbbi jobban dominált. Ha javítanak az api használhatóságán akkor lehet, hogy gyorsan el fog terjedni, de a dx10 is többek közt azért szorult háttérbe, mert nem olyan egyszerű vele fejleszteni, mint ahogy sokan hiszik. Ezért jó cucc pl a CUDA, mert sok terhet levesz a fejlesztők válláról, DX meg csak egyre bonyolultabb lesz, aminek látványbeli haszna nem nagyon van, mert dx9ben már szinte mindent meg lehet csinálni, csak teljesítményben javul, de ha így fejlődnek a vasak, akkor nem nagyon lesz egyelőre olyan engine, aminél megérné belefektetni azt a + energiát.

  • VinoRosso

    addikt

    DX10-zel a legegyszerűbb fejleszteni, mert minden szabványos

    Ne haragudj de ez már megint egy akkora sületlenség...miért lenne valami egyszerűbb, mert szabványos ? A dx9 éppen annyira szabvány, mint a dx10. Ha valami azért egszerű, mert szavbányos, akkor miért lenne egyik egyszerűbb a másiknál?

    DX9-et is meg kell csinálni, ami időigény, hisz a két rendszer már nem kompatibilis.

    Pont fordítva van, a legegyszerűbb egy dx9-es motort csinálni, ami felruháznak pár dx10-es featurerel, hiszen erre vannak már jól bejáratott módszerek, és van egy csomó újrafelhasználható kód. Teljesen új motort csinálni a semmiből a legköltségesebb mulatság, főleg egy új tehcnológiával, amiben annyi buktató lehet, mint égen a csillag. Ezért tudod megszámolni egyetlen kezeden, hogy hány full dx10-es motor van, mert nem éri meg az a +10-20 FPS.

    pl imádott techlanded sem fog ezért dx10-es motort csinálni(holott ők már megtehetnék), mivel tökmind1, hogy a jelenlegi hardvereken 60 vagy 80 fps-el fut a játékuk.

    DX10 has many additional features beyond DX9 but unfortunately it's quite hard to use them to get more than just a slight improvement in the overall quality of the game.

    (#425) old gray :én egy évig használtam 64 bites Vistát, végre kijött egy olyan oprendszer, ami használható volt 64 biten. A driverekkel csak annyi problémám volt, mint amennyi bármelyik másik oprendszerrel, illetve amennyi a Vistának általában, a 32bites is éppen annyira belassult tőlük. Nekem a flash is ment, nem kell 64 bites böngészőt használni, ha lassabb is a 32 bites nem annyira, hogy nagyon lerontsa a használhatóságot.

    [ Szerkesztve ]

  • VinoRosso

    addikt

    Te konkrétan hol dolgozol, hogy Klarowcz féle fazonokkal diskurálsz? Megkérdezhetnéd tőle, hogy ha nehezebb dx9re fejleszteni, akkor miért nem gyúrnak rá dx10re. A szó szerinti fordítása a nyilatkozatának az, hogy elég nehéz használni a dx10 featureöket hogy egy kis javulásnál többet érjenek el a játék minőségében. Lehet, hogy én nem tudok magyarul, de nálam ez köszönőviszonyban sincs a magyarázatoddal. Na meg meg kéne kérdezni még pár gurut, hogy miért nincs elárasztva a piac dx10es technológiákkal, ha annyival egyszerűbb használni mint a dx9et. Elvégre az egyszerűség az egy egyszerű elv, olyasmi mint az energiaminimum elve, van egy csomó "lusta" fejlesztő, akik minél könnyebben szeretnének eredményeket elérni, és arrafele gravitálnak, amerre ezt a leghatékonyabban meg tudják tenni. Ergo ha megnézed hogy hol van sok tömeg, ott kell lennie valahol a minimumnak is és ez nem a dx10es bolygó környéke :N

    [ Szerkesztve ]

  • VinoRosso

    addikt

    mindeki azt ott próbál előretörni, ahol reális esélye lehet. G80 után az atinak nem volt más választása, mint innovativnak lenni, mert egyedül így tudtak leghatékonyabban teljesítménynövekedésre szert tenni. Ezért erőltetik a dx10.1-et, de a bökkenő az, hogy szoftver oldalról nem olyan egyszerű az átállás, mert egy játék feljesztési ideje nem mérhető össze egy VGA-éval. Egy VGA-nél a dx9-dx10 illetve a dx10 dx10.1 váltás max 1- fél év, és ha kell onnéttól kezdve el tudják árasztani vele a piacot, viszont a szoftveres átállás nem ilyen egyszerű. Ha valaki dollár millókat beleöl egy sw kifejelsztésébe, nem akar fél-egy év múlva egy újat piacradobni, egyszerűen nem is tudna, mert évekkel korábban el kell ahhoz fejleszteni, a kb 2-3 éves fejlesztési idő miatt. Ebből általában legalább ugyanennyi ideig szeretne megélni, és emiatt ezeknek a termékeknek az életciklusa is jóval hosszabb. Nem fél- egy éves ciklusban cserélődnek hanem minimum 3 de inkább 5-6 éves vagy még több. Egy 8800 GTS 640 ma már nem csúcskártya de 2 éve még nagy király voltam vele viszont UT3, Xray, Cryengine még mindig ott vannak a toppon, jönnek ki rájuk játékok. Ergo anno az architektúra, ami jól teljesített abban, addig jó piaci helyzetben lesz, amíg ezek eltejedtek lesznek. Az nvidia erre alapozott, mert a g80 jó volt ezekben, az atinak ezért nem volt esélye másra, mithogy várjon arra, amig ezek kiöregszenek.A váltás meg nem egyszerű, mert a deveknek is akkor éri meg technológiát váltani, ha a régiből már nem lehet kipréselni eleget. Toldozgatni foldozgatni nem sok értelme van, mert egy dx9es motorból fabrikált dx10es nem hozza azt a teljesítményt amit kellene neki. Egy full dx10.1es motort fejleszteni meg megint 2-3 év, tehát legkorábban 4 év, ha már van egy dx9es gammájuk. Valószínűleg emiatt kevés igazi dx10.1es játék lesz, mert mire ezek a fejlesztések piacra kerülnek, addigra már lesz dx11, és dx10.1ről dx11re váltani már egyszerűbb.

  • VinoRosso

    addikt

    áhh már azt hiszem hogy átálltál az nvidia pártjára mert állandóan zöldségeket beszélsz :D . Kerek perec le van írva, hogy nem hoz elég teljesítménynövekedést, és túl sok erőfeszítésbe kerülne elkészíteni. Eleve dx10-es motort kellett volna írniuk, olyat, amilyen a stormrise, és akkor tényleg megmutatkozna a dx10 előnye. Attól még hogy van egy renderer a motorban, ami tud dx10-et, nem lesz dx10 alapú a játék. Ahhoz h dx10 alatt megteremje a gyümölcsét a fejlesztésbe fektetett munka, teljesen új alapokra kell helyezni az egészet. Egészen addig míg ez meg nem történik, alig lesz fps nyereség, vagys megeshet az a blama, hogy dx9ben jobban fog futni a játék mint dx10ben, ahogy ez a SoC, Clear Sky, Crysis, WiC stb esetében meg is mutatkozott.

  • VinoRosso

    addikt

    Hát ennél jobban nem fogod látni, mert alá is húztam. Na jó...lehetett volna még félkövérbe is tenni akár :D Egyébként ha olvasod a cikket nem csak nézed, abban a részben pont nem a B.i.B-ről kérdezték őket, hanem arról, hogy úgy "általában" megéri e dx10re fejlesztni, mikor ugyanazokat az effekteket meg lehet csinálni dx9-el is. Erre azért több mint furcsa válasz az, hogy "azért fejlesztünk dx9re, mert az Ubisoft szivat minket". :U

  • VinoRosso

    addikt

    csak azt felejtetted ki a számításból hogy 1 kártyára 16x PCI-E esetén 16/2=8x sávszélesség jut, míg 2 kártyára -jobb esetben- 2x8 nál nagyobb sávszélesség esik. Azt is figyelembe kell venni, hogy mennyire érékeny a rendszer a PCI-E sávszélességre. 4870X2nél ez kevésbé szűk keresztmetszet a fejlettebb CFX switch miatt, ezért is gyorsabb a 4870X2 mint a 4870 CF, 3870 esetében fordított a helyzet, és SLInál is hasonló. Na meg a GTX295 nem 2xGTX285, hanem ahogy írtad 2x GTX 260 240 sp. Az is egy szempont hogy a CF jobb mint a z SLI, bár ez sem minden esetre igaz, mert csak akkor jobb, ha az átlagos teljesítményt vesszük figyelembe. Két kártyás SLI baromira sztochasztikusan viselkedik, hol 2x< a speedup, hol meg el sem indul vele a játék, és nagyon sok az ilyen átlagtól eltérő eset. Crysis alatt éppen mondjuk jól skálázódik a 2xGTX285 ( miért is skálázódna pont cryis alatt szarul :U ), és csúnyán elveri a GTX 295-öt. [link]

    Na meg aztán jönnek a piszkos anyagiak, 4890 CF fogyasztása nem kismiska, + jó CF-es alaplap se olcsó, bár nem mintha a jó SLI deszkák ára kedvezőbb volna stb stb stb...

  • VinoRosso

    addikt

    Irtam hogy a rv670< már nem számít a PEX 8647-es CFX switch miatt ha jól emlékszem ez 5Gb/s ről 20Gb/s-re növelte a sávszélt, ez nincs CFnél, ezért ha kijön majd a 4980X2 várhatóan gyorsabb lesz mint a 4890CF (és kevesebbet is fogyaszt majd, így megint megkérdőjeleződik a CF jogosultsága). Nvidiánál ez fordítva van, ott a 2 kártyás(vagy inkább 2 slotos) rendszerek még mindig gyorsabbak, de szeritem már itt sem sokáig, ha kidobják a single PCB-s 295öt, akkor ott is lesz valami, amimvel kissé leszakíthatják az alaplapi hídról a kártyát, így már valóban két GPU-s, és nem "két kártyás" VGA lesz belőle.

  • VinoRosso

    addikt

    1 slotos inkább :D Leggyorsabb egykárytás a 4870X2. Majd ha kijön a single PCB-s 295 akkor már lehet az a leggyorsabb. Fogyasztásmérőd van amúgy? Kiváncsi vagyok mennyi dejelt vehet fel a rendszered Clear Sky benchmark alatt, na meg az eredményekre is dx10.1 alatt.

  • VinoRosso

    addikt

    úgy értem hogy single PCB-s. Ha 2 PCB jut egy PCI-E slotra, akkor nem single PCB-s. Nem azokra a takarólemezkékre gondoltam, ahol a levegő ki szokott menni, bár tudtam, hogy félreérthető, mert idehaza a nyelvújító mozgalmak miatt már "2 slot"-nak számít, ha van hely a levegőnek távoznia házból :DD Az ilyenekről mindig ez jut eszembe.

  • VinoRosso

    addikt

    jólesz az 2011re is szerintem.Emlékszem tavaly is idén Q1re is igérték a 40nm-es gpukat.

  • VinoRosso

    addikt

    Hehe ez olyan mintha azt mondanád: elkészült, egyetlen aprócska gond van csak vele: nem működik. ;]

  • VinoRosso

    addikt

    én azt hittem rajtad piros van, nem zöld :U De most közelebbről megnézve már látom, hogy a szemeid pirosak, a fejed neg zöld :D

  • VinoRosso

    addikt

    Hát véleményem szerint legjobb pártatlannak maradni, mert egyik sem mindenben jobb, hanem vannak árnyalatnyi különbésgek is, hol ez, hol az van fölényben. Szóval a kép nem fekete, nem fehér, hanem szines. De lehet 1 biten is gondolkodni, te tudod...

  • VinoRosso

    addikt

    Hát jelenleg a legerősebb GPU ennyit tud :D . Hogy ez mire elég azt mindeki döntse el maga, de ha ez vicc, akkor a tesztben 4. oldalon lévő címsor nem tudom hogy mi? Ha valakinek esetleg nem tűnne fel:

    DirectX 10.1 tesztek, összehasonlításban szereplő VGA-k, 9800 GTX 512/1G & GTX 285

Hozzászólok Aktív témák