Keresés

Hozzászólok Aktív témák

  • Gonosz15

    aktív tag

    válasz VinoRosso #131 üzenetére

    csip csip :DD

    "Az igazi érték az nem is a szépség, meg nem az intelligencia, nem a humorérzék, nem az hogy milyen a kocsid, vagy az hogy mi a neved, hanem ha te kerülsz szóba azt mondják egy korrekt gyerek."

  • leviske

    veterán

    válasz VinoRosso #168 üzenetére

    Akkor most végülis akkor lenn GT212, vagy nem? Mert nekem úgy rémlik, hogy az nV elvetette már egy ideje a GT300 érdekében.

    És az is rémlik, hogy eleve 55nm-ről 40nm-re nem lehet csak úgy "átportolni" az adott GPU-t, így a GT212 esetében egy aránylag új GPU-ról beszélnénk, ami nem feltétlenül jó húzás fél/negyed évvel a GT300 startja előtt. :)

    (#160) rocket: Ha jól tudom, akkor a Q3-ban érkező GT240 és 230 már 40nm-es lesz. És az eddigi jelek is arra utalnak.

    [ Szerkesztve ]

  • rocket

    nagyúr

    válasz VinoRosso #171 üzenetére

    Beleposzintu GT218 nincs mar messze.

    "A lower resolution generally means that there can be more quality per pixel."

  • Abu85

    HÁZIGAZDA

    válasz VinoRosso #204 üzenetére

    Miért lenne feltétlenül bonyolult az amiben sok függőség van? Ha az egyszerű utasítások függnek folyamatosan egymástól, akkor már rossz a helyzet az R600 esetében. Ezért ilyen gyenge a chip Folding teljesítménye. Erre mondta a Folding egyik programozója, hogy ezen nem lehet javítani, mert az R600-at az AMD a DX10-re tervezte, azaz a legjobb chipet akarta a grafikai számításokra. Ha a rendszer csak olyan utasításokat kap amik függnek egymástól, akkor a shader processzorok 80%-a pihen, mert egyszerűen nem tud a lehetséges 1+1+1+1+1 co-issue módban működni.
    A G80-nál olyan, hogy függőség nincs, mert ez az architektúra stream rendszer. Komponens folyamokon dolgozik, azaz az utasításokat az egymás után következő komponenseken végzi el. Gyakorlatilag a G80 mindig 100%-os kihasználtságot garantál. Ami nagyszerű a programkódnak. A probléma az, hogy a belső cache rendszer irgalmatlanul gyengén bánik az ideiglenes adatokkal. A stream processzorok regisztereinek mérete is kevés. Az ütemező elemzi a feladatokat, és ha túl bonyolult a párhuzamos végrehajtásra, akkor a 8 utas Streaming shader processzorból annyi utat lekapcsol, ahány szükséges a működéshez. Ez persze azt is magával vonhatja, hogy egy ilyen blokkban a 8 stream egységből csak egy fog működni, és az felhasználja a többi egység regiszterét. Előfordulhat persze az is, hogy még így is kevés lesz a regiszterterület, így a hely hiányában az adatok a TPC cache-be lesznek kiírva. Gondolom nem kell ecsetelni, hogy ez mekkora probléma a sebességre nézve. A rendszer aktív processzorai ilyenkor kvázi 10-15 órajelenként dolgoznak (most nem tom pontosan mekkora a TPC cache késleltetése). A G200-nál például a stream processzorok regiszterméretét megduplázták és a belső gyorstárak összmérete is a hatszorosára nőt. Ez nagyon látszik a DX10-es példaprogramokban. Főleg a Geometry Shadert, vagy Cube Map tömböt használó alkalmazások esetén ... utóbbi esetében szó szerint megfekszenek a GeForce-ok, még a GT200 is az R600 alatt van, túl bonyolult nekik a feladat. Persze a GT200 még így is tízszer gyorsabba a G80-nál, csak az R600-hoz még ez is kevés.

    Az NV-nek ezért lenne fontos legyűrni a DX-et, mert a CUDA-ban jó eséllyel nem használnak majd, olyan baromságokat, mint Geometry Shader és Cube Map tömb. Amikkel egyébként Globális Illuminációt és dinamikus környezeti tükröződést lehet csinálni, ergo egy újabb grafikai ugrás lenne. A DX10.1-ben már az MS azt is megoldotta, hogy a Cube Map tömbök számítása párhuzamosan történjen. Hmm ... vajon miért is nem támogatják a GeForce-ok a DX10.1-et, ha annyira a grafikára pályáznak? Vagy lehet, hogy mégsem a modern eljárásokra épülő grafikai számításokért rajonganak? :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz VinoRosso #231 üzenetére

    Én nem fikáztam a GT300-at, csak írtam, hogy az előzetes infó szerint nem biztató. Nem grafikára lesz, ahogy a G80 és a GT200 sem arra van. Ennyi ... már leírtam, hogy miért. Bár ez nem újdonság. Majd meglátod az év végére, hogy mi lesz a helyzet. :)

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz VinoRosso #233 üzenetére

    Néztem teszteket pontosan tudom mennyire gyenge az ideiglenes adat kezelése a rendszernek. De ez már megint lefutott dolog. Az RV770 pedig azért érte be az NV-t, mert G80 architektúra akkor volt jó, amikor megjelent, az R600 pedig akkor lett működőképes, amikor az RV770 jött. A GT200 előnye pedig már nem egyértelmű az RV770-RV790-nel szemben. Az új játékok már az AMD rendszerének feküdnek és fognak feküdni. Ez már tényként kezelhető. (mi is leváltjuk a régi versenyzőket és jönnek az új DX10-es tesztjátékok ... jobban reprezentálják a jövőbeli teljesítményt)
    De nem vitázom tovább. Anno megmondtam, hogy az FX5900-at kicsinálja majd DX9-ben a középkategóriás Radeon 9600 is, elég sokan röhögtek, aztán a HL2 után már belátták, hogy igazam volt. Meglátjuk, hogy alakul a dolog a DX10-ben. ;) Amire ugye a jelenlegi architektúrák készültek.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • R.Zoli

    őstag

    válasz VinoRosso #235 üzenetére

    A Te elméleted szerint akkor most az NV DX11-es chipje bármi lesz a neve nagyon ütni fog ugye? Mert akkor most nekiálltak és fejlesztettek egy DX11-es chipet... Szerintem nem így lesz de majd meglátjuk. Márcsak azért sem lesz így mert amit Abu mond szerintem igaz és ha az NV most visszatért a grafikai vonalra gyúrásra akkro a GPGPU piacot kellene feladnia amibe egy halom pénzt nyomott bele és ott lehetne egyeduralkodó,arról nem is beszélve ,hogy újra kellene szinte tervezni alapjaitól egy chipet ha újra a grafika lenen a fő szempont... Namost az AMD chipje R600-tól nézve is kőkemény grafikai problémák megoldására lett kitalálva míg az NV csinált egy olyan chipet ami kielégítő grafikában és GPGPU terén igazán erős. Amit Te mondasz ,hogy egy GT200-as chip überjó grafikára is mert nézzük meg ,hogy az AMD grafikai chipre gyúrt míg az NV nem és mégis alig pár (kb. 15%) százalékkal erősebb egy RV770 egy GT200b-vel szemben DX10.1 alatt... Ez igaz ,de könyörgöm nézd már meg ,hogy milyen 2 chip áll egymással szemben, az egyik egy monstrum közel másfél milliárd tranyóval kevesebbet tud DX10.1 alatt grafikában mint egy 1 milliárd tranyós közel fele akkora chip ami nemcsak ,hogy kisebb fogyasztású de ráadásul majdnem fele annyiba kerül... Szóval a TE gondolatmeneted ott bukik meg ,hogy az NV KŐKEMÉNYEN SZOP MOST mert a bazinagy chipje nem bír komoly grafikai feladatokban a kis gagyi közép-felső kategóriába szánt "kis buta" Ati chippel... Ha megnézed mondjuk az RV790-et akkor még szomorúbb a helyzet... DX9 alatt is kevéssel van csak lemaradva (kevesebb mint 10%) ez a bazi nagy ormótlan ,kazán,drága GT200b mögött... Ez nagyon is mutatja ,hogy ki mire gyúrt rá...Legalábbis ha neked ez nem világos akkor nincs miről beszélni...

    HA meg rágyúr most DX11-re az NV olyan monolitikus chippel mint amiről most cikkeznek akkor is KO... Sajna ez a vonat már elment, az Ati nem ment csődbe és innéttől kezdve nincs miről beszélni...Annyi Radeont adnak el mostanság ,hogy nem lesz már semmiféle NV optimalizáció... HA lesz is valami akkor inkább az ATinak kedvez mert ők tették le a tech doksikat az asztalra mit és hogyan...

    Egyébként ha pedig csakis DX11-re gyúrnának akkor a GT200 sem lett volna... Hidd el az a gond ,hogy nem volt B terv... Az Atinak buknia kellett volna, de nem történt meg... A GT200 is grafikai vonal szempontjából egy tóldozott foltozott megoldás... Mért foltoztak volna a G90 hibáin ,hogy DX10 alatt ne omoljon össze ha az volt a cél ,hogy ezzel az architektel kihúzzák a DX11-ig? Nincs logika az érvelésedben... Mint mondtam itt a legnagyobb gond az ,hogy a G90 hibái elő sem kerültek volna mert már rég CUDA lenne mindehol és nem kellett volna GT200...

  • R.Zoli

    őstag

    válasz VinoRosso #243 üzenetére

    Ne haragudj de annyira nincs kedvem válaszolgatni a fanatikusok hozzászólásaira... csak tudnám, hogy külföldön miért nincsenek ilyenek???

    Detto, külföldön senki sem személyeskedik és a másik állításait nem ilyen halandzsa hülyeségekkel próbálja rossz fényben feltüntetni... Akkor én meg mondhatnám ,hogy a Te írásod egy elfogult gagyi NV buzulás... DE nem tettem, leírtam a véleményem és kész,nem támadtalak, Neked is cask ezt kellett volna tenned, erről szól egy egészséges vita... Szóval először magadba nézzél mielött mást akarsz osztani mert valóban pont ez megy ebben az országban ,hogy mindenki beszól csak a másiknak ahelyett ,hogy kész érvekkel vitatkozna...

    2006 novemberében jött ki a 8800GTX ennek 2008 júniusáig nem volt ellenfele, 8800 GTS és később a helyére érkező 8800 GT 2006 novtól 2008 júniusig ár/érték arányban is a legjobbak voltak, ezt mintha figyelmen kívül hagynátok. Ha ezek a kátyák nem voltak jók grafikára, akkor a felső becslés miatt az összes alatta lévő kártya( ergo az r600is ) alkalmatlan volt grafikai munkára. Szerintem egyik semm alkalmatlan különben nem venné meg senki, egyszerűen csak arról van szó, hogy az nv-nél nem fél évekre terveznek, hanem 2-3 éves ciklusra, és kidobnak egy értékálló chipet, amiben van annyi, hogy évekig profitálhatnak belőle.

    Ott bukik meg a dolog ,hogy gyakorlatilag a 2008 Júniusa óta mint ahogy írtad az NV a legtöbb pénzt hozó szegmensben nyagyon alúl marad az ATI középkategóriás chipjeivel szemben... A TWIMTBP szerződések sorozatos felbontása nem hiszem ,hogy az NV érdekében állt ,sőt mostantól kezdve nem lesz annyi NV optimalizált játék mint eddig volt így sokkal érdekesebb kép alakulhat ki... A partnerek profitjai visszaestek míg Ati vonalon szárnyalnak...Az NV Dx11-es chipjét év végére várják... Amit leírtál időszakot az egy nyereséges időszak volt az NV számára míg kb. ugyan ilyen hosszú időszak lesz ami bukó, szóval nem hiszem én ,hogy olyan nagyonh erre apelláltak... A piaci részesedése vesztése, a TWIMTBP szerződések felbontása, a fokozódó Ati kártya optimalizációk több software cégtől illetve a CUDA népszerűtlensége (ami ugye kevesebb eladott kártya esetén még inkább kisebb kört érint) biztosan nem volt belekalkulálva a dolgokba... Ha az Ati még a nyár végén kihozza a DX11-es chipjét akkor év végéig még nagyobb bukta lesz itt nekik sőt ki merem jelenteni ,hogy a 4770 megjelenésével ebben a szegmensben nem is lesz szinte kereslet NV kártyákra jó darabig... Ezt ha bekalkulálták akkor ok ,de kétlem...

    Ha ezek a kátyák nem voltak jók grafikára, akkor a felső becslés miatt az összes alatta lévő kártya( ergo az r600is ) alkalmatlan volt grafikai munkára.

    Az R600 egy kényszermegoldás volt ,hogy abban az állapotban hozták piacra... Ki kellett hozni és mutatni belőle valamit mert különben oriási presztizsveszteség és a partnerek bizalma is elveszett volna nem beszélve a fejlesztőkről akik semmit sem láttak volna az úgy architecturából... Az R600-nál buknia kellett volna az Atinak ez egy nyílt titok... DE látszik abból is ,hogy folyamatosan veszteségeket könyvelt el az AMD az Ati megvétele után mert túl drágán vettek meg egy olyan céget ami éppenhogy túl akart élni egy olyan projektet amibe az AMD nékül beletörött volna a fejszéje... A 3870 (Rv670) megjelenésével már látszott is ,hogy az R600 valami hasonló chip akart lenni de akkor az időhiány nem tette lehetővé a kibontakozást és most az RV770 környékén kezd beérni az architekt...

    Attól még hogy 512 sp van egy choben, nem feltétlen kell nagynak lennie. A radeonban 1200 lesz mégsem pattog egyikőtök se, hogy hú majd milyen nagy lesz a magméret. Nem hiszem, hogy megoldhatatlan feladat a tranyószám redukálása, senki nem mondta, hogy a jelenlegi architektúrát fogják továbbvinni, sőt ha visszagondolunk 192 bites kártyákról érkeztek hírek korábban, tehát sejthető, hogy jelentősen faragnak az előállítási költségen

    Ez mind csak feltételezés... Én meg mondhatom azt ,hogy más hírek pedig sokkal komplexebb chipről szólnak mint akár a GT200b volt ami sokkal több tranyó és nagyobb magméretet feltételez...Most akkor Te NV fan vagy mert az NV számára "jobb" hírt hiszed el én meg Ati fan vagyok mert a "rosszabbnak" hiszek??? Ugyan már... Én egyszerűen kételkedem abban ,hogy az NV újra visszaáll és vert helyzetből iszonyat pénzeken fejleszt egy új architektet ahol eleve hátrányból indul és most majd lever mindenkit... Lehet ,hogy így lesz de valljuk be nagyon kicsi az esélye... A Dx11 napjai is meg vannak számlálva, ergo gyökeresen új architektet fejleszteni 2-3 évre a a software render-ig... Na hát lehet ,hogy itt mondták a kozgazdászok ,hogy nem...

    Merem feltétlezni, hogy egy akkora szellemi tőkével rendelkező vállalat, mint az nvidia képes felfogni azt, hogy mi mennyire éri meg neki. 10000% hogy ők sokkal jobban átlátják a helyzetet amiben vannak, és nálam és nálad okosabb közgazdászok tömkelege áll a rendelkezésükre, hogy kikalkulálják mi éri meg nekik a legjobban.

    Mi is erről beszélünk...Ők már kikalkulálhatták azt is ,hogy nem éri meg itt maradniuk a VGA piacon és kiszállnak, marad a jövőben az Intel és AMD harca ők ebbe már nem tudnak beleszólni (x86 hiánya)...

    Egy chip "jóságát" elsősorban az határozza meg, hogy milyen alkalmazásokat futtatnak rajta, illetve hogy mekkora az a spektrum, ami alkalmas lehet a optimalizációra ezeken. Mindkát chip annak ellenére, hogy teljesen más felépítésű, ha megfelelő célra alkalmazzák, nagyon jó lehet általános alkalmazásokra.

    NA igen de mondjuk ezek a spektrumok eléggé behatároltak... Talán a Larrabee-re igaz amit mondasz de a mai GPGPU-k felépítése sokkal specifikusabb és alkalmassa teszi egy területre illetve alkalmatlanná egy másikra minimális kis architekt különbség... Pont ebben lesz a Larrabee előnye ,hogy sokkal általánosabb mint egy GPGPU viszont közelebb áll a GPU-k párhuzamos feldolgozási képességéhez mint wegy CPU... Nem véletlen ,hogy ez lesz a "jövő" Intzelék szerint sem akik ugye azért nagyokat nem szoktak tévedni...

  • R.Zoli

    őstag

    válasz VinoRosso #249 üzenetére

    DX10.1 alatt nézzük a dolgokat akkor kb. 20-25% előnye van egy GTX285-höz képest az RV790-nek.

    Stormrise... Ami alapjaitól építve DX10-es motor és full DX10.1...A többi említett játékok azért nem éppen szín tiszta DX10-re épülnek...

    na és gtx275 ellen mit szánt, talán a 4870 x2-t? Csak nem tudom, hogy akkor a feljebb lévő 3 kártya ellen mit szán? Meg hogy miért késett fél évet a 4890-el, miért a gtx275-el egy időben jött ki...

    Ez pont fordítva volt , a GTX275-t küldték az RV790 ellen... DE az a gond ,hogy azóta jöttek DX10.1-es játékok is (HAWX v. Stormrise de a jövőben még több) amiben viszont veri a GTX285-t...

  • Dare2Live

    nagyúr

    válasz VinoRosso #253 üzenetére

    csak egyet emelek ki:
    "áadásul most kiderült, hogy 1600 sp sem lenne elég, mert az csak 2,4TFlops..."

    ettől még maradat az ATInak kedvező felállás, hogy "5870" bár gyengébb de nem annyival mint amennyivel olcsobb.

    and on the 7th day god went windsurfing

  • Departed

    őstag

    válasz VinoRosso #253 üzenetére

    Vajon nem lenne jobb inkább a múltbéli kártyákat és jelenlegi kártyákat összehasonlítani? Mert ugye amik majd lesznek, azokkal kapcsolatban csak találgatások vannak, 100%-os kész infók természetesen még egyik oldalról sincsenek, hogy milyenek lesznek az idei újgenerációs kártyák. :K
    Ami szerintem az igazán fontos, az a létező és kapható kártyák ár/érték aránya. Az első DX10-képes kártyák generációinál kétségkívül az Nvidia volt igazán nyeregben, ez fordult meg az RV770 beköszöntével, amire az Nvidia hosszú ideig nem tudott úgy válaszolni, hogy a teljesítményt és az árat egyszerre jól mozdítsa. Ez köszönhető pl. a gyártástechnológiák különbségének, hogy baromi költséges a GTX2** kártyák előállítása.
    A helyzet most pedig az, hogy az Ati kártyák nagyon fogynak hónapok óta, mert ár-érték arányban nagyon ott vannak. Az meg inkább pozitív, hogy az Nvidia elkezdte helyretenni az árakat, például a legolcsóbb 4890-es és gtx275-ösök között 5 ezer forint a különbség előbbi javára. Tehát el lehet gondolkodni az ártól függetlenül, hogy Ati dx10.1-gyel (a H.A.W.X azért nem volt rossz játék) vagy Nvidia Phisx-szel. :K
    A végén úgyis a vásárló jár jobban, mert szárnyal az Ati, de az Nvidia sem úgy tűnik, hogy hagyni fogja magát...
    Szóval szerintem ne egymást marjuk, hanem mindenki belátása szerint döntsön. Én az Ati kártyámmal vagyok elégedett maximális mértékben, más meg az Nvidia kártyájával játszik remek órákat.
    És a történet folytatódik, mi pedig figyelmesen nyomon követjük, elvégre nagyrészt minden értünk, vásárlókért (is) történik... :R

    VinoRosso: Amint látom jelenleg Ati-d van, a következőd Nvida kártya lesz? Valamiért csalódtál az Ati-ban, vagy jobbnak látod amit az Nvidia kínál? :R

    Xiaomi Mi 9T Pro 6/128GB (Android 10 + MIUI 11)

  • Departed

    őstag

    válasz VinoRosso #256 üzenetére

    Köszi a beszámolót! Tehát állandóan át kéne irogatnod a cuccok részedet, a folyamatos nyomonkövetéshez ;)
    Hát nálam Voodoo3-->Geforce4MX-->Geforce FX5600 (jáj) -->Radeon 9700Pro --> X800GTO2@X850XTPE ---> X1800XL ---> HD4850 a sorrend, tehát mint látható, Nvidiák aztán Ati-k jöttek a gépembe, meg is mondom miért.
    Az Nvidia mindkét kártyája viszonylag olcsó volt, de ár/érték arányban egyáltalán nem voltak rendben (főleg az 5600, az valami rosszullét/idegroham lehetett amikor megvettem, két hónap múlva repült is), és valahogy mivel én élsimítás-fan vagyok - jelmondatom: le a recékkel - én úgy emlékszem hogy gondjaik voltak sok esetben velük, emellett az Ati-jaim fényévekkel jobban tuningolhatóak voltak mindigis mint az NV kártyák. És valahogy számomra mindig stabilan működőek. :K
    És végül a valaha volt legjobb kártyám a 4850, ami ár/érték arányban égbekiáltó módon adott egy nagy pofont az NV-nek. Tájékozódtam is hogy miért, hát a gyártástechnológia fejlettsége miatt. És ez mostanában egyre jobban kijön ahogy tűnnek el az NV logók a játékokból.
    Fan-nak nem mondanám magam, ésszerűen döntök inkább, és a max 35k-s kategóriában (annyiért vettem októberben) az Ati a befutó, 1680-ban meg tökéletes a 4850.
    Ami miatt viszont itt is vagyok, hogy érdekel hogy az NV miket mutat föl most és a jövőben, és egyenlőre nem igazán megfelelő konkurens termékeket.
    De mint mondtam, várom a fejleményeket, addig meg futtatok mindent maxon AA-val a Sapphire remekével :K
    A lényeg viszont marad: hajrá Nvidia, főzzetek ki valami ütőset :K

    Xiaomi Mi 9T Pro 6/128GB (Android 10 + MIUI 11)

  • Abu85

    HÁZIGAZDA

    válasz VinoRosso #253 üzenetére

    A Stormrise-ban igaz, hogy a DX10-ben is gyorsabb a Radeon a konkurens GeForce-nál, de a DX10.1 még +25%-ot tesz rá a négymintás SSAO és árnyék szűrés miatt - Gather4 előnyök, negyedannyi munka ugyanazzal a végeredménnyel. Erről a GDC-n beszéltek a játékfejlesztők (Techland, DICE, Creative Assembly, Ubisoft Montreal és EA Phenomic) ... itt a közös anyaguk ... [link]
    A Far Cry 2-őt az picit aranyos, azt ugyanis azért írták meg DX10.1-re, hogy az AMD egy fázissal többet számoljon, mint a GeForce ezzel lassítva a Radeon kártyákat. Ezért nincs például DX10 mód engedélyezve a Radeonoknak, mert akkor ugyanannyit számolnának a kártyák, az az egy fázis az kb. 10-15% mínusz az AA teljesítményen a Radeonoknak. Persze előny, hogy az alpha teszt objektumoknál is van AA, de ezekből az objektumokból nincs sok a játékban. Az Ubisoft például a Far Cry 2-nél sokallt be az NVIDIA-ra ... ezek után az NV a szerződésre hivatkozva még a PhysX-et is erőltetni akarta, így az Ubisoft inkább kivásárolta magát TWIMTBP kötelezettséges alól.
    A S.T.A.L.K.E.R. Clear Sky az AA nélkül gyorsabb DX10.1 módban és sokkal szebb ... össze van hasonlítva. AA-val meg lassabb a DX10.1 mód, de az Alpha test miatt több a számítás is, tehát összességében ott vagyunk, hogy az AMD a konkurens GeForce rendszerekkel hasonló sebességet ér el látványosan jobb képminőség mellett.(ezt meg is írtuk) Extra GDC anyag a GSC-től - [link]
    A PhysX-et akkor hozzuk fel példának, ha ipari platformba lesz építve, addig csak cukor nélküli cukormáz, ami borítékolható, hogy ki fog halni. Az Anandtech már megírta róla a nem túl rózsás véleményét. Mi újságírók - minő meglepetés - újságírók vagyunk. ;] Minden szempontot a felhasználó érdekéhez kell viszonyítanunk. A gyártók érdekét kb. leszarjuk, nem érdekel minket. :)) Elmegyünk a sajtótájékoztatókra, bratyizunk velük, de a marketingmaszlagot nem adjuk át a világnak, mert az nem érdekel senkit, max a fanokat. Innentől kezdve van egy szoros határvonal a dolgokban, amelyik technika nem épül ipari szabványra, az elgondolás szinten halott, tehát nem veszünk róla tudomást, mert az elmúlt 10-14 év tapasztalata alapján minden ilyen (nem szabványos) megoldás kihalt. És ezek bizony tények, ha már egy megoldás át ment volna a szitán, akkor más lenne a nézőpont, de az összes gyártói technológia a kukában végezte, mert jött rá egy általános független megoldás (ide is megérkezett az OpenCL és év végére már lesz Compute Shader, tehát baromira nem nehéz kitalálni, hogy a CUDA és az Ati Stream az bukó a PC-s VGA piacon). Nem véletlen, hogy az NV felvetette a Physx OpenCL-be való pártolását, mert az Intel és az AMD a Havok-ot beteszi a szabványos platformokba. Itt látszanak egyelőre az érdekkülönbségek. Az Intelnek és az AMD-nek az számít, hogy a Havok elterjedjen, az NVIDIA-at nem érdekli a PhysX, ennek a technikának csak az a célja, hogy az AMD-t és utána az Intelt rávegye a CUDA támogatásra, hogy az NV saját rendszere legyen a szabvány teljesen GeForce-ra optimalizálva. Innentől kezdve az AMD jöhet az kis chipekkel és a "kivégzős" Sweet Spot politikájával, a Multi GPU-s skálázást megölik a CUDA-n és éljen, az NV nyert. Ez az egész lényege. Csak a CUDA valamiért nem akar terjedni a játékfejlesztők körében. Még mindig a DX a fő platform és az OpenCL, Compute Shader felé kacsingatnak a jövőre nézve (ahogy ez a GDC-n ki is derült ... mindenki a Havok-ot figyelte a PhysX Apex bemutató pedig nem éppen telt ház mellett volt lezavarva). És nem azért érdekelte a fejlesztőket a Havok, mert nekik ez új, hanem azért, mert orrba-szájba hangoztatták, hogy a Havok rendszer platformfüggetlen. Nyilván ha az NV akar a PhysX-el kezdeni valamit, akkor ki kell szakítania a CUDA-ból. :)
    Rosszul értelmezed a PhysX támogatását is. Az, hogy egy játék a PhysX API-re épül nem jelenti automatikusan a hardveres támogatást, ugyanis az platform, tartalmaz egy szoftveres és egy hardveres kódolást. Ergo a fejlesztő eldöntheti, hogy használni akarja-e a hardveres fizikát vagy nem. Speciel UE3-as játékból ami használja a fizikai gyorsítást az az UT3, a Mirror's Edge és majd a Star Tales (valamikor kijön idén). Ezenkívül támogatja a GeForce gyorsított fizikát: Ghosh Recon Advanced Warfighter 2, Warmonger, Sacred 2, Cryostasis. Emellett PhysX lesz még idén: Shattered Horizon, Metal Knight Zero, Metro 2033, U-wars. Van még több hardveres PhysX játék is, de az kompatibilítási problémák miatt csak a PhysX kártyán tud működni. Természetesen a PhysX kártyát az új GeForce PhysX játékok is támogatják, bár itt meg kell jegyezni, hogy normális kód csak az Unreal Engine 3-ban van a gyorsítóhoz írva. Ez gyakorlatilag azt jelenti, hogy helyenként szart sem ér a rendszer (pl.: Cryostasis, Sacred 2). - na jó a szarnál azért többet ér, de csodát ne várjatok. :D
    Ezenkívül még jön még pár Physx játék idén, de ezekről az NDA miatt nem nyilatkozhatom ... és a DX10.1-et, valamint a tesszellátort támogató játékok is titkosak. Sry srácok, de megkötötték a kezemet ... még a számukat sem mondhatom el ... és ezt komolyan veszik (priviben sincs infó :N ), majd ha lejárnak az NDA-k, akkor elárulom. :K

    Az RV870 - GT300-ról még korai beszélni. Eleve semmi hivatalos anyag nincs, hogy gyakorlatilag milyen chipek lesznek. Ha a nem hivatalos infókat vesszük alapul, akkor gázban van az NV, mert az RV870 az 1200 SP-jével kb. 160-170 mm^2 lesz. Amiből egy X2 baromi olcsó, és kurva gyors. A GT300-at az 512 SP-vel és megváltozott ütemezővel 430 mm^2 főlé érdemes tenni, de inkább 450-460-at mondanék, mert a textúrázócsatornáknak mostantól egy helyett négy szűrő kell a DX11 miatt, ami szintén tranyózábálás. Plusz ugye ott van a cache szervezés, ami az infók szerint továbbra is blokkszintű. Mellesleg, ha az AMD MCM modult csinál az RV870-ből, akkor egy RV870 X4-re is lehetőség van, amire a múlt évi infók szerint idén ősszel lenne támogatás a 8 utas CrossFireX személyében. Továbbá nem említettük, hogy az októberi rajthoz már a Juniusi tape out-nál kvázi hibátlan chip kell, így 6-7 revíziót lehet készíteni amiben javítani kell a felmerült hibákat. Általában 10-12 revízió készül egy chipből a végleges forma előtt. Mérnöki csoda, ha ezt az NV megcsinálja. Az AMD RV770 startja előtti hirtelen órajelemelés gyerekjáték volt anno ehhez képest.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz VinoRosso #261 üzenetére

    Tisztázzunk pár dolgot. Egy DX11-es játék szebben néz majd ki és gyorsabban fog futni a DX10.1-es Radeonon, mint a DX10-es GeForce-on. Másrészt ... szerencsére a DX11-ről lehet beszélni, mert nincs róla NDA. Két stúdió dolgozik DX11-es motoron (illetve egy DX10-ből fejlesztett változaton ... ez nem jelent majd problémát, mert a DX11 a DX10 kiterjesztése - tehát nem ilyen kamu DX10 lesz, mint a DX9-nél volt szokás), ahogy az a GDC-n kiderült, ők a DICE (Frostbite Engine) és a Techland (Chorme Engine). Az DX11 váltás egyelőre azért kell, mert az AMD Tesselation SDK nem működik a GeForce-on (világos, hisz AMD SDK ;] ), így a DX11-gyel, kell majd életre kelteni a GT300 tesszellátorát. Ez nem sok munka, a Tessellation SDK-ből könnyű DX11 kompatibilis kódot csinálni. Legalábbis a DICE szerint a DX11 portolás három óra volt. Egyelőre több dologban nem gondolkodnak a DX11-nél, mert a Compute Shaderen kívül, minden szükséges dolgot tud a DX10.1 (illetve a Compute Shadert is támogatja, csak némi megkötéssel). Gyakorlatilag az új textúratömörítési eljárások szintén emulálhatók a DX10/10.1-es karikon ... persze némileg lassabban. A Gather4 mint legfontosabb dolog, ott van a DX10.1-ben.

    Sajnos az NV az elmúlt hetek alapján nagyon ramaty helyzetben van. Voltam a héten konferencián. Most már nem az átlagos teljesítménnyel, hanem egy-egy megvett játékkal támadnak a zöldek.
    Az NV GF GTX 275 PR doksija egyszerűen teljesen más elvre épült, mint a régiek. Még a GTX 295 megjelenésénél fel voltak sorolva a top játékok és le volt mérve a a HD 4870 X2 teljesítménye. (Természetesen itt bevett szokás, hogy szándékosan olyan beállításokat keresnek, ahol a saját kari nyer. Ez nyilván PR doksi, az AMD is ezt csinálja. Eredményt ugye egyikük sem tud hamisítani, mert ellenőrizve vannak, de nyilván olyan beállításon tesztelnek amit jónak látnak, csak ugyanazok legyenek a körülmények, mindkét rendszernél.)
    A GTX 275-nél már ilyenről nem találtunk infót a PR anyagban, mert az NV alig talált olyan beállítást, ahol a HD 4890 verve volt. Két játékért meg kb. felesleges grafikont csinálni, mert még a végén rákérdeztek volna, hogy miért hiányzik a Crysis Warhead, Enemy Territory Quake Wars ... stb.
    Ettől függetlenül sírva röhögtek az anyagon az újságírók, mert le volt tesztelve az UT 3 Physx-es pályákkal, a Mirror's Edge Physx móddal, meg a Physx-es techdemók. És képzeld nyertek a GeForce-ok a procival számoló Radeonok ellen. ;]

    Ha lehet úgy fogalmazni jelenleg az NVIDIA játékokat vesz ... kb. havi egyet, és az összes többi programban el lesznek verve. Nem tudnak jönni a PR anyagokban az ár/teljesítménnyel, mert a konkurens Radeonok gyorsabbak és olcsóbbak. Árcsökkentésről meg szó sem lehet. kb ... ez a mai siralmas helyzet. A jövőbeli PhysX-ről meg azért nem beszélnek, mert kérdéses a jövő. Miért támogasson egy fejlesztő egy olyan technikát, ami a többségnek nem áll rendelkezésre.

    A Crytek sosem fog Physx-et használni. Maga a Boss mondta, hogy nem akarnak külsős technikát alkalmazni, továbbra is saját rendszert csinálnak mindenre.

    A PhysX-nek amúgy van menekülő útvonala. Ki kell szedni a CUDA-ból és életben marad. Ellenkező esetben meg tényleg nem nehéz belátni mi lesz vele. Nem tudok olyan technológiáról, amit nem végzett volna ki egy független platformra épülő. :) Mellesleg az NV-nek sokkal jobb GeForce eladási mutatók kellenének a CUDA-s Physxre. A jelenlegi HD 4890:GTX 275 féle 30:1 az baromi kevés. A többség gépe a lényeg a fejlesztőknek.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • tlac

    nagyúr

    válasz VinoRosso #264 üzenetére

    Csak hipotetikusan:
    Az nvidia ősszel piacra dob egy dx11es VGA-t, ami legalább ugyanolyan jó lesz árban és teljesítményben, mint a konkurrens temék.
    ...

    tartok tőle, hogy ha az nv jó kártyát is csinál dx11-ben, nem fogják sokkal többen venni, mint most
    egyrészt most az van a fejekben, hogy az ati jobb, másrészt ha igaz lesz, hogy dx11-ben a 4830/50-es kártyák is elfogadhatóan fognak menni a dx10.1 miatt, akkor ezek a tulajdonosok (akikből rengeteg van) nem fognak ugrani dx11-es nv-t venni

    [ Szerkesztve ]

  • Abu85

    HÁZIGAZDA

    válasz VinoRosso #264 üzenetére

    De a DX10.1-es kártya kvázi ugyanazt a teljesítményt és képminőséget hozza a DX11-ben, mint egy natív DX11-es. Ezzel szemben a DX10-es kártya lassabb lesz és gyengébb képminőséget állít elő.
    Ráadásul a Tesselation SDK-vel az első játékok alatt egyetlen HD Radeon nem szenved hátrányt, mert a legelső DX11-es címek a tesszellátor használatára törekednek. Márpedig a tesszellált felületnek az xBox 360-on is kell működni, így az eljárás megfelelő lesz az összes tesszellátorral rendelkező kártya számára.

    Tévedés a gyártók nem vesznek játékokat. Kapcsolatokat teremtenek, de a játékért még soha senki nem fizetett. Olyan eset volt, amikor az NV némi anyagi juttatás fejében megkérte a fejlesztőt, hogy küldjék el az AMD csapatát, ha bejelentkeznek (Hellgate: London) ... de ennyi volt. A PhysX támogatását viszont meg kell venni. A Mirror's Edgebe is 5 milláért rakták bele. Világos, hogy megkérik az árát a fejlesztők, mert kvázi kizárják az elterjedtebb rendszer felhasználóit a max. grafikából (ugye teljesen világos, hogy a PhysX az nem fizikaként, hanem grafikaként van jelen - de ez lényegtelen). Az NV-nek konkrétan venni kell mostantól a játékokat, ha eladást akar generálni, mert ezek nélkül nincs az az ember, aki drágábban vesz GeForce-ot a gyorsabb Radeon mellett (fanokra ugye nem lehet építeni ... általában az emberek nagy többsége a saját érdekét nézi).

    A Crytek TWIMTBP szerződése már a múlt évben lejárt és nem újították meg. Ellenben beálltak az AMD-hez, mivel a CryEngine 3 főleg az Xbox 360-hoz készül, és a Xenos az AMD fejlesztés. Nyilván nem kérdés, hogy az AMD ismeri a legjobban a rendszert. A Crytek a saját érdekét nézi, az NV-t kb. leszarja. Jelenleg az AMD tud nekik segíteni.
    A fizikáról a GDC-n nyilatkozott Yerli, amikor megkérdezték, hogy vesznek-e PhysX-et/Havok-ot ... arra rögtön rávágta, hogy nem ... válasz röviden: teljesítményben sokkal jobban járnak egy saját rendszerrel, mert azt a motor igényei szerint fejlesztik. Bár azt megjegyezte, hogy a Havok bemutató nagyon tetszett neki, de nem lát benne olyan dolgot, amit a jelenlegi saját fejlesztésű rendszerük ne tudna megcsinálni.

    Az őszi GT300 starthoz mondom, hogy kvázi hibátlan type out kell. Ilyen a történelemben sohasem fordult elő. Nem mondom, hogy nem lehetséges, de a realitás talaján maradva 40 nm-en a január a reális időpont. Persze ettől most vonatkoztassunk el. Jön a GT300 és kész. Mit fog adni a DX11 az elején. Tesszellátor támogatást ... a többi újításhoz idő kell, mint a DX10 esetében. Persze nem sok, de minimum egy év. Eleve a fejlesztők a gyártók dokumentumai alapján dolgoznak, jelenleg a Techland és a DICE aki hozzáfogott a DX11 portolásba, de messze nem viszik túlzásba. Mellesleg ez a két stúdió DX10 motort csinált, tehát AMD partnerek. Ugye csak az AMD-nek vannak fejlett DX10 dokumentációi, így a stúdiók azoktól a cégektől kérnek segítséget, akik segíthetnek nekik. DX10-ben pedig az AMD a top, így máshoz nem tudnak menni. Az NV a CUDA-val volt elfoglalva, így az ő rendszerprogramozói nem annyira képzettek, mint az AMD-sek.
    A userek tömkelege nem fog venni DX11-es karit. Pláne nem méregdrága NV-t, mert a GT300 nem az olcsóbb szegmensbe nevez (gazdasági válság stb.). A középkategóriás DX11 chip pedig az NV-től nem az év végén jön. Persze konkrét infót megint nem mondhatok, de általában 3-4 hónap szokott lenni az átfutás. Talán most sem lesz több. :N
    Mellesleg ott egy kellemetlenség is, az RV870 személyében, ami várhatóan előbb jön a GT300-nál. Elméletben az AMD a GT300 startra időzítheti az X2 verziót. Mi a garancia arra, hogy a GT300-at választják. A PhysX annyira nem érdekli az embereket, nézd meg a felméréseket. Mindenki a teljesítményre hajt elenyésző tömeg választ a DX10.1+tesszellátor miatt kártyát, és még elenyészőbb a PhysX miatt. A vásárlók többsége szerintem azt sem tudja mi az a DirectX, de hallotta, hogy valami jó dolog, és nézi a minél nagyobb számot. A PhysX-ről meg kb. fogalma sincs ... azt sem tudja, hogy létezik. :)

    A G80 az eleve az Ati csődjére ment. Csak azért nem mentek a vörösök a csődbe, mert az AMD-nek elég tartaléka volt. Ha a felvásárlás nem történik meg, akkor már rég az NVIDIA az egyeduralkodó a CUDA-jával. :K

    És a DX az melyik grafikus processzorgyártóhoz kapcsolható? Azt az MS fejlesztette, ahogy leírod, aki nem gyárt grafikus processzort ... ergo a cég totálisan gyártófüggetlen (bár durván AMD puszipajtás, de ezt most hagyjuk ;] ) a PC-s játékpiac életben tartása a célja.

    tlac: A HD Radeon tesszellátort a Tesselation SDK-n keresztül lehet támogatni. Ha van a játéknak Xbox 360 verziója, akkor copy-paste, ha nincs, akkor meg kell írni a kódot. Nyilván DX11 hiányában mindenki a Tesselation SDK-n nyomul, így a jelenleg fejlesztett projektek tesselation kódja meg lesz írva a Radeonokra, és a DX11 kód lesz az extra meló. De ez a DICE szerint 3 óra pluszmunka (konkrét tapasztalat birtokának hiányában én elhiszem nekik :) )
    A DX11 tesszellátor egyébként maximum 64x-es tesszellálásra képes, míg a Xenos 15x-ös.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • rocket

    nagyúr

    válasz VinoRosso #253 üzenetére

    "az r800 lesz bajban a 1200 SP-orával a 3,1 Terás GT300 ellen."

    Az amirol beszelsz az RV870, ha lesz R800 az biztos nem 1200SP lesz, hanem pl. 2x1200SP (dual GPU, vagy dual core MCM majd kiderul) , ehez veszunk mondjuk 800mhz-es orajelet, es maris tobb mint 3.8Tflop/s a teljesitmenye.

    Egyebkent ahogy eddig is, ezutan is felesleges a nyers teljesitmeny alapjan barmilyen kovetkeztetest levonni, foleg honapokkal a megjelenes elott pletykakbol kiindulva ;)

    [ Szerkesztve ]

    "A lower resolution generally means that there can be more quality per pixel."

  • Abu85

    HÁZIGAZDA

    válasz VinoRosso #288 üzenetére

    Az, hogy wikipédia. :) A HL2 baromira nem így zajlott. Tudom, mert elmondták nekem (egyszerű reklámszerződést kötöttek, amiben az volt benne, hogy a Valve játékok beállítómenüjében be kellett rakni egy "legjobban ATI-val fut" feliratot). A Valve azért ment az AMD-hez (ATI-hoz ... lényegében mindegy), mert a DirectX 9-es Source motor alatt tudták, hogy bolhafing az FX teljesítménye, így az NVIDIA semmilyen segítséget nem tudott volna nyújtani, mert szar volt az architektúra az erős shader terhelésre.
    A Doom 3 is baromság, olyannyira, hogy John Carmackről nyíltan lehet tudni, hogy nem egyezik meg senkivel sem reklámszerződésben, sem más támogatásban. Egyszerű munkakapcsolatról lehet szó nála maximum, ami nem hozza hátrányos helyzetbe a konkurens vállalatok termékeit. Carmack külön render rutinokat írt anno a piacon lévő kártyákhoz. Volt az alap ARB a régi termékekhez (GF3, GF4 stb), az NV30 (GF FX), az R200 (Radeon 8500/9000), és az ARB2 a többi Radeonora illetve a jövő grafikus kártyáira.

    Hát rosszul tudod, mert a Crytek a CryEngine 3-on dolgozik, és jelenleg folyamatosan az AMD segítsége kell, mert azt a poligontömeget, valahogy mozgásba kell hozni az XBox 360-on. Ebben hogy tudna segíteni az NVIDIA? Azt sem tudják, hogy a Xenost, hogy kell megfelelően programozni. Ellenben ezt a legjobban az AMD tudja, hiszen ők tervezték a lapkát, tehát tőlük kell segítséget kérni.

    Akkor nevezzük a DirectX-et gyártófüggetlennek (nem Intel, nem AMD, nem NVIDIA, nem VIA). :R Remélem, így már világos, miért lehetetlen a CUDA elterjedése. Mondj egy olyan rendszert a piacon, ami valamelyik gyártóhoz kapcsolódik, és komoly mértékben elterjedt a fejlesztők körében. :) Akár évekre is visszamehetünk. ;)

    Egyébként kb. helytálló, hogy az MS az nem valami találékony, mert általában lop, de a DX-et figyelembe véve. Mond mi gátolta meg abban, a Khronos Group-ot, hogy jobbat csináljon az aktuális DX verziónál? ... mert az MS biztos nem
    Jó dolog mindent rákenni az MS-re, de alapvetően, nem mindig erről van szó.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Dark KillerX

    addikt

    válasz VinoRosso #359 üzenetére

    Hát igen a Vista néhány gyártó drivereivel nem bír kijönni,és itt a driver írói és az MS is hibás részben.Amúgy én olyan hibával találkoztam tesómnál,hogy ha a Leadtek 2000Xp drivereit föltelepítettük Vista alá,sehogy se bírtuk a TV csatornákat behangolni(nem volt kép,csak feketeség),ezzel szemben Xp-én simán ment. :K Szal azért vannak furcsaságok a Vistával,de ettől eltekintve úgy néz ki a Win7 lesz az új generációs oprendszer a gépekben. :B

    [ Szerkesztve ]

  • keIdor

    félisten

    válasz VinoRosso #375 üzenetére

    A Crysis+Warhead simán menne... nem Full HD-ben gondoltam. :U
    GTA 4 meg elég szélsőséges eset...

    Announcing the RTX-3080 TiE

  • keIdor

    félisten

    válasz VinoRosso #377 üzenetére

    Full AA ugye az tudod, hogy 16xQ AA, SLi-nél 32xQ AA és Quad SLi-nél 64xQ AA.
    Egy mai VGA se bírja el ezeket, max 1024x768-ban, de annak meg mi értelme lenne, ugye...

    Én max grafikán mindig azt értem, amit az opciókba be tudsz állítani, de a felbontást nem számítom ide, ennyi erővel a max grafika lehet 3db 30' monitorral is 5000×3500-ban. :U

    De akkor elmondom mire gondoltam: 1680×1050, NoAA, 16xAF, Very High. Ez tuti elmenne 30FPS környékén... szvsz

    [ Szerkesztve ]

    Announcing the RTX-3080 TiE

  • biggamer

    veterán

    válasz VinoRosso #383 üzenetére

    7. :C :C :C

    Ha az életben minden fontos dolgot szemmel el lehetne intézni, akkor az utcákon csak halottak és terhes nők lennének ... WOT / BF3 / BF4 ... biggamerHUN

  • zuchy

    őstag

    válasz VinoRosso #383 üzenetére

    Azért a közel 4 millió poligon a 9. képen nem semmi. :Y 5.6 FPS mellett :D
    Bámulatos képek. :C

    [ Szerkesztve ]

    PC-STYLE.hu

  • Beowulf_78

    addikt

    válasz VinoRosso #387 üzenetére

    Messze van még ez a graf. szint játék közben...talán majd 2-3 generáció múlva. De a G300 RV870 tuti nem fogja még tudni.

    Szakmai kérdésekkel ne pü-ben keress....használd a megfelelő topikot! A 4890 CF tesztet amit elkezdtem, nem fogom befejezni. Majd megcsinálja más. A meglévő nVidia-s cikkeimet pedig törölni fogom.

  • ulveczkii

    tag

    válasz VinoRosso #383 üzenetére

    a 10 és 12 tutira kamu
    manipulált fénykép

    Ui: Egyébként szép képek de azért az itt ott felbukkanó dx9 felírat elég tré.

    [ Szerkesztve ]

  • Beowulf_78

    addikt

    válasz VinoRosso #395 üzenetére

    Azta betyárságos k úristenit! :Y :Y Folyamatosan egyre mélyebbre esik az állam! :Y Eszméletlen így egymás mellett! Még mindig a CryEngine a best of részemről! Egyszerűen hihetetlen. :C :C :R

    Szakmai kérdésekkel ne pü-ben keress....használd a megfelelő topikot! A 4890 CF tesztet amit elkezdtem, nem fogom befejezni. Majd megcsinálja más. A meglévő nVidia-s cikkeimet pedig törölni fogom.

  • Abu85

    HÁZIGAZDA

    válasz VinoRosso #401 üzenetére

    A gyári teszt alapján nem nagyon van 100 FPS alatti sebesség, még extrém beállításon sem. A GTX 295-nál már sokkal lassabb volt, persze az mindenképp hozzátartozik a történethez, hogy az SLI még nem működik normálisan. Majd az NV csinál hozzá profilt és az is jól fog skálázódni.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • tzsolesz

    nagyúr

    válasz VinoRosso #421 üzenetére

    Meg vagy erősítve, a környezetemben szintén hasonló dolgok játszódtak le az elmúlt hetekben, hónapokban.

    Ha elterjed a hír, hogy még be is válik a DX11, meg a hasonló fícsörökkel együtt, akkor nincs miről beszélni. :N

  • Abu85

    HÁZIGAZDA

    válasz VinoRosso #423 üzenetére

    Számos fejlesztő mondta már, hogy a DX10-zel a legegyszerűbb fejleszteni, mert minden szabványos. Ami baj, hogy a DX9-et is meg kell csinálni, ami időigény, hisz a két rendszer már nem kompatibilis. :)

    A CUDA-ra majd térjünk vissza, ha támogatja az AMD és az Intel is. Addig felesleges köröket futunk. :))

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • old gray

    addikt

    válasz VinoRosso #421 üzenetére

    Az újdonság varázsa, nagy a hype a win7 körül, ennek ellenére én Vista X64-ről most váltottam XP-re. :DDD Nagyon jó dolog a 64bites op.rendszer, nekem nagyon gördülékenyen ment, csak hát a 64bites driverek, meg adobe sem szeret 64bitre fejleszteni, jó, van silverlight, de az nem u.az :(

    [ Szerkesztve ]

    Broadcasting lies on the television screen / Trying to get us hooked on your american dream

  • Abu85

    HÁZIGAZDA

    válasz VinoRosso #426 üzenetére

    A DX10-ben nincsenek vendor specific caps bitek. Ha megírsz valamit DX10-ben, akkor az biztos, hogy menni fog egy DX10-es kártyán. DX9-nél rengeteg a gyártóspecifikus fícsőr, például a render-to-vertex-buffert nem támogatja a GeForce, így ode kell egy vertex texture fetch alapú megoldás ... és ezzel máris dupla munkát végeztünk.

    A Techland Chrome Engine 4 az DX9/DX10-10.1 és DX11 motor. Jakub Klarowicz az egyik programozó, vele sokat szoktam beszélni. Speciel a Call Of Juarez második részénél a határidő miatt nincs DX10. Mert az UBI nyár elejére kérte. Ebbe vagy a DX9, vagy a DX10 render fért bele. Az UBI pedig a DX9-et választotta. Ez persze majd azt eredményezi, hogy nincs elsimítás támogatás semmilyen formában sem.
    A DX10-nél az interjúban arra gondolhatnak, hogy az API kötelezi a programozókat a shader kódok megírására, azaz az új rendszer már nem tartalmaz fix funkciós shadert, de manapság már mindenki saját megoldásokkal dolgozik, így ez nem jelenthet gondot. Nyilván a DX10 rengeteg problémára tartalmaz megoldást, a DX9-ben meg lehet mondani, hogy az API nem támogatja a color részinfók mintavételét, így az AA-t sajnos buktuk, mert Deferred Shading a motor ... és még lehetne sorolni. :) Ettől nyilván könnyebb lesz a dolog, hiszen van kifogás, miért nincs AA támogatás. ;]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Beowulf_78

    addikt

    válasz VinoRosso #430 üzenetére

    Én is ezért mondtam amit mondtam...hova a faszba rohan az AMD-ATi? Semmi sem dőlt még el. Akár a nagy vesztesei is lehetnek a csatáknak, mert ez is benne van még, ezért nem értem az álláspontjukat. "Kötélhúzó verseny" zajlik az API-k között is, az OP rendszerek között is, A 2 nagy GPU gyártónál is. Nincs elfogadott irány, mindenki próbálja ráeröltetni a high tech-et a jónépre, vegyél DX10.1 karit, használj Win7-et, mert jönnek a DX11 karik és játékok..vicc amit művelnek. Aztán itt az első blama a COJ 2. Nem hogy DX10.1 de még DX10 se kerül bele. Nesze neked fejlődés. Persze lehet szépíteni, hogy ezét meg azért, meg nincs idő rá...persze. Ez csak üres magyarázat, semmi több. De gondolom nem publikus valós érvek is vannak..ez a DX9 a kitaposott út, és nem akarnak befürödni egy esetleges túlságosan hardverigényes DX10 motyóval. Lásd COJ első része. A mai napig ATi kártyákon lényegesen jobban megy, mint nV-n, és hát azokon se túl régóta megy jól. 1920x1200 full az még a GTX295-öt is megfogja, ippeg-hogy játszható. Bár lehet nem megy rendesen az SLI. Végülis...ATi-ra optimalizálták. :U
    Amikor viszont kiadták alíg tudott vele valaki normális felbontásban játszani. 3870 X2 is szopatta, 1680-ban játszhatatlan volt, és még nem is volt full-full. 1280-ban toltam végig szégyen szemre egy 103k kártyával. :( 2 éve nem volt megfelelő hardver a játéhoz, ami gondolom nem kis bevételkiesés. Ezt akarják most elkerülni. Ennyi.

    Szakmai kérdésekkel ne pü-ben keress....használd a megfelelő topikot! A 4890 CF tesztet amit elkezdtem, nem fogom befejezni. Majd megcsinálja más. A meglévő nVidia-s cikkeimet pedig törölni fogom.

  • Abu85

    HÁZIGAZDA

    válasz VinoRosso #430 üzenetére

    Hát a PH-n dolgozom. Ez pont elég ahhoz, hogy a Klarowcz féle fazonok szóba álljanak velem. :) A Techland Chrome Engine 4 motorja DX10-re készült. Egyszerűen az Ubisoft miatt kell a mostani Call Of Juarezt DX9-ben kiadni, nincs idő két rendert összetákolni. Sokkal jobban szeretnének a játékosok korrekt játékélményt, mint AA támogatást.
    Mit kellett volna mondani a szóvivőnek? Azé nincs DX10, mert nem fért bele az időbe? Ez nem hangzik jól. Mellesleg annyiban igazuk van, hogy DX10 mellett még a shadereket is meg kellene írni az AA-hoz, így meg el van intézve, egy "nem támogatja a technika az élsimítást oszt jólvan" mondattal. :D Világos, hogy az utóbbi az egyszerűbb.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz VinoRosso #443 üzenetére

    Nem látom az ellentmondást, pontosan ezt mondta Jakub Klarowicz is. DX9-re és DX10-re egyszerre nem volt idő. Meg eleve a Techland nem ilyen összecsapós csapat. Ha valamit jól csinálnak az a grafika.
    Annyi lett volna a különbség, hogy lett volna AA támogatás is, de akkor a DX9 kiesik és ezzel együtt a Vista felhasználók is. :) A nagy sebességet a DX10.1-ben lehet nyerni. A DX10-ben problémákra vannak megoldások némi teljesítményugrással.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Beowulf_78

    addikt

    válasz VinoRosso #458 üzenetére

    :D

    [ Szerkesztve ]

    Szakmai kérdésekkel ne pü-ben keress....használd a megfelelő topikot! A 4890 CF tesztet amit elkezdtem, nem fogom befejezni. Majd megcsinálja más. A meglévő nVidia-s cikkeimet pedig törölni fogom.

  • Beowulf_78

    addikt

    válasz VinoRosso #481 üzenetére

    1 kártyára 16x PCI-E esetén 16/2=8x sávszélesség jut, míg 2 kártyára -jobb esetben- 2x8 nál nagyobb sávszélesség esik. Azt is figyelembe kell venni, hogy mennyire érékeny a rendszer a PCI-E sávszélességre

    Ebben igazad van. :K Ezt nem vettem számításba. Bár nem hinném hogy ez a sávszélesség dolog bárhol is szűk keresztmetszet lenne. ;) De mivel ezt le kellene tesztelni, így nem állíthatom biztosan. Lehet nálam azért megy jól a CF mert 2x 16x a PCI-E sávszélesség. Fasz tudja. Aztán lehet csak szimplán szereti a Maximus lapot. ;)

    [ Szerkesztve ]

    Szakmai kérdésekkel ne pü-ben keress....használd a megfelelő topikot! A 4890 CF tesztet amit elkezdtem, nem fogom befejezni. Majd megcsinálja más. A meglévő nVidia-s cikkeimet pedig törölni fogom.

  • Departed

    őstag

    válasz VinoRosso #481 üzenetére

    Na meg aztán jönnek a piszkos anyagiak, 4890 CF fogyasztása nem kismiska,
    Szerintem aki ilyen monszter-párost vesz, legkevésbé ezzel a tényezővel fog foglalkozni :K

    Beowulf: Üdvözlünk (újra?) a köreinkben :D Nemrég még hogy kiálltál az Nvidia mellett, most pedig ámulsz az Ati-páros világverésén..illetve most már talán AMD párosnak kéne hívni...bár az majd elvileg az új kártyák elnevezése lesz :)

    Xiaomi Mi 9T Pro 6/128GB (Android 10 + MIUI 11)

  • Beowulf_78

    addikt

    válasz VinoRosso #488 üzenetére

    Nem tartok még ott. Telepítek 1000-rel. Jaj de utálom ezt.. :F :( ha már minden fent van, és le van mentve, akkor már zsír lesz! :K :C
    Ezek után jöhetnek a tesztek.

    1 slotos inkább, Leggyorsabb egykárytás a 4870X2

    Mi is a különbség az 1 slotos és 1 kártyás között? :U 295 összesített eredményeiben (összes felbontás átlagát nézve) jobb 5% a 4870 X2-nél. Ez tény. Bár van aki ezt nem ismeri be. De ettől még tény, ezért a leggyorsabb VGA jeleneleg. :P

    Szakmai kérdésekkel ne pü-ben keress....használd a megfelelő topikot! A 4890 CF tesztet amit elkezdtem, nem fogom befejezni. Majd megcsinálja más. A meglévő nVidia-s cikkeimet pedig törölni fogom.

  • Abu85

    HÁZIGAZDA

    válasz VinoRosso #529 üzenetére

    A gyártósor az kész volt Q1-re csak sok volt a hiba. ;]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz VinoRosso #604 üzenetére

    Én nem engedhetem meg magamnak azt a luxust, hogy ne a jobb terméket favorizáljam. :U Tudod ... júzerek érdeke stb. ;)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz VinoRosso #606 üzenetére

    Pontosan ezt mondom én is. ;)

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • GuB3Ra

    aktív tag

    válasz VinoRosso #680 üzenetére

    Szerintem nem a legerősebb 1 gpus megoldás ;]

    Daark minimalism

  • Bluegene

    addikt

    válasz VinoRosso #680 üzenetére

    inkább az 1 gigahertzes 4890

    Siemens S65-re való adatkábelt keresek! egyszeri Szoftverfrissítésre! Írj megbeszéljük ha van elfekvőbe/kölcsön neked!

  • Bici

    nagyúr

    válasz VinoRosso #684 üzenetére

    Az attól függ, melyik játékban.

    The Needs of the Many Outweigh the Needs of the Few.

  • Bluegene

    addikt

    válasz VinoRosso #684 üzenetére

    nincs olyan, a 4890es az erősebb

    de ez már off

    Siemens S65-re való adatkábelt keresek! egyszeri Szoftverfrissítésre! Írj megbeszéljük ha van elfekvőbe/kölcsön neked!

  • Abu85

    HÁZIGAZDA

    válasz VinoRosso #692 üzenetére

    Nézd meg jobban. :) (a grafikonok alján változik a kártyák sorrendje)

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Bici

    nagyúr

    válasz VinoRosso #695 üzenetére

    Szerintem ez elég érdekes teszt. Más játékokkal más eredmények jönnének ki.
    Átfogó képet sztem több teszt megismerésével lehet alkotni.

    A PH tesztben pl. 4:1:3 az állás. (Radeon győz - fej-fel mellett - 275 győz).
    Ebből az UT3 esetén 2560x1600-ban is 100 körül vannak az FPS-ek, tehát a gyakorlatban semmit nem jelent, hogy a Radeon lemarad.

    [ Szerkesztve ]

    The Needs of the Many Outweigh the Needs of the Few.

  • Abu85

    HÁZIGAZDA

    válasz VinoRosso #695 üzenetére

    Persze ... mi magunk válogatjuk meg a játékokat. :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Hozzászólok Aktív témák