Hirdetés

Hozzászólok Aktív témák

  • R.Zoli

    őstag

    DX10.1 alatt nézzük a dolgokat akkor kb. 20-25% előnye van egy GTX285-höz képest az RV790-nek.

    Stormrise... Ami alapjaitól építve DX10-es motor és full DX10.1...A többi említett játékok azért nem éppen szín tiszta DX10-re épülnek...

    na és gtx275 ellen mit szánt, talán a 4870 x2-t? Csak nem tudom, hogy akkor a feljebb lévő 3 kártya ellen mit szán? Meg hogy miért késett fél évet a 4890-el, miért a gtx275-el egy időben jött ki...

    Ez pont fordítva volt , a GTX275-t küldték az RV790 ellen... DE az a gond ,hogy azóta jöttek DX10.1-es játékok is (HAWX v. Stormrise de a jövőben még több) amiben viszont veri a GTX285-t...

  • Beowulf_78

    addikt

    Persze azt se felejtsük el hogy ezek a DX10.1 játék nevek egy kalap meleg fingot se érnek. :B Olyan mintha nem is lennének. A Company Of Heroes új része agyonvágja mindkét hiper-szuper DX10.1 fícsörrel szerelt stratégiát. Ha már a blamánál tartunk... :B ;]
    A 25% előnyt pedig azért szajkózzák mert Abu linkelt egy ATI által gyártott reklámfilmet.
    Nem is értem ez alapján hogy lehet bármit is készpénznek venni. Ha nem így prezentálna egy önreklámot, az lenne a baj, viszont ez semmiképpen se mérvadó. Olyan Coca-Cola reklámot én még nem láttam ahol azt emelik ki hogy elvonja a kálciumot a fogakból, és hosszú távú fogyasztásánál porladni fognak a fogak. :U Szóval nem értem mit lehet várni egy elfogult, ATI által generált reklámtól... :B :P

    Szakmai kérdésekkel ne pü-ben keress....használd a megfelelő topikot! A 4890 CF tesztet amit elkezdtem, nem fogom befejezni. Majd megcsinálja más. A meglévő nVidia-s cikkeimet pedig törölni fogom.

  • VinoRosso

    addikt

    El vagy tévedve, a stormrise nem a dx10.1 miatt fekszik az ATI kártyáknak hanem a GS miatt. Ez nem új keletű dolog, hiszen a CoJ-ben is volt, és ott is nagy az előnye az ATIknak, pedig nem dx10.1es, hanem csak simán dx10-es render. Ha dx10.1et akarsz hasolnítani, akkor fc2 vagy CS-t is illik figyelembe venni, ezekben nincs GS, viszont van mondjuk egy olyan godrays effekt, ami a jelenlegi videókártyák mindegyikét megfogja, és érdekes módon dx10ben és dx10.1ben sem jobb az ATI az nvivdiánál ebben. Egész egyszerűen azért mert nem buta shaderigényes számolás, hanem egy komplex algoritmus van mögötte, ami a geforcoknak fekszik inkább. Sőt dx9ben is lehetett olyan eljárásokat használni, ami a sok sp-t tartalmazó kártyáknak kedvez.
    De most van pár játék, amiben GS-t használnak, ami egyébként szerintem nem egy rossz dolog, csak az enm tetszik, hogy ez alaján akarják megítélni az összképet, ami ennél sokkal árnylatabb, aztán amikor közli az ember a tényeket, akkor leharapják a fejét. Nyugodtan fel lehet hozni a PhsyX-et példának, mert kb annyit számít a futási teljesítményben, mint a GS, mégse sipárgott senki, mikor az nvidia megvette az aegia-t hogy hú most vége az atinak. Ráadásul itt már készen voltak a játékok, nem kellett rájuk várni, és nem is akármilyen játékok voltak, pl GRAW1-2, Rainbow six Vegas, Mass Effekt, Cryostatis, vagy pl az UT3 és a motorjára épülő játékok, GOW, Mirrors Edge stb.. nem sorolm fel mindet, nézz utána hogy hány játék készült phsx-el, sokkal de sokkal több van már most, mint amennyi dx10.1es lesz év végéig. Bár addig szerintem nem kell várni a GT300ra, szerintem okóberben piacra fogják dobni, igaz ez csak tipp, és nem azért mert nv fan vagyok, vagy mert jóindulatú vagyok az nvvel szemben, nem...azért mert azt látom, hogy nagyon régóta nem volt érdemi újítás a nvidiánál, ebből arra lehet következtetni, hogy valamin nagyon dolgoznak a háttérben, mert bőven pénzük meglett volna rá, és hülyék lettek volna 25x átmatricázni egy kártyát, hacsak nem valami miatt le voltak kötve az erőforrásaik, és kötve hiszem, hogy azon filóztak volna, hogy neon vagy cyberpunk zöld színűre cseréljék a matricát a kártyájukon. + nem egy info lett megszellőztatve már idáig, hogy radikálisan növekedni fog az SP szám, és radikálisan csökkentik az előállítási költségeket. Nyilván így van, mert ők is tudják, hol vérzik el a jelenlegi rendszer, és minden valószínűség szerint azon voltak az évek során, hogy ezt kijívítsák. Ebből a G80 óta semmi nem látszott, csak növelték az SP számot, valamint arra mentek, hogy minél előbb utolérjék gyártástehcnológiában az ATI-t, ami őszre teljesülni is fog, valamint hogy redukálják a fogyasztását a kártyának. Nem tudom foigyelted e, hogy az általad említett 1,4 milliárd tranyós 55 nm-es változata kevesebbet eszik a sokkal soványabb rv770xt-nél. Szvsz ez sokkal nehezebb feladat lehetett, mint a GT300 feljesztése, mert nagyon rövid idő alatt kellett jelentősen csökkentenia mag fogyasztását. Közben meg kijött az rv790, és ez a feladat az ati számára megoldhatatlannak bizonyult ugynazon csíkszélességen, a növelt órajelnek köszönhetően többet zabál már mint egy GTX280, és teljesítményben is ugyanott van, és érdekes módon most nem vinnyog egyik ati fan se, hogy hú mekkora fos ekkora fogyastással ilyen teljesítmény fú...közbe meg várják a 4890x2-t, hogy milyen jó lesz majd, anno meg teljesen elképzelhetetlennek tartották a 280Gx2-t mert hogy az annyit eszik hogy nem lehet megcsinálni. Ilyenkor mondom azt hogy :W :W :W GTX285 ami fogyasztásban teljestményben is jobb, egyedül az árával vannak problémák, valamit azzal hogy nem támogat dx10.1-et. Őszre dx11-el az az 5-6 játék ami kijön is el fog futni dx10.1ben geforcon is, tehát ezt a piaci előnyt közel sem érzem jelentősnek, ha meg árban is sikerül versenyre kelni az atival, akkor bizony az r800 lesz bajban a 1200 SP-orával a 3,1 Terás GT300 ellen. Pár hónappal ezelőtt még csak gonolni se mertem ekkora lebegőpontos teljesítményre, igaz már akkor is hallottam, hogy az nv nagy dobásra készül, és mondtam is, ha nem 1200 körüli sp számmal jön a 4890 akkor őszre nem fogják tudni hozni az 1600 sp-t, ami ahhoz kellene, hogy versenybe tudjanak szállni a gt300al. Akkor Abu szokás szerint ösztönből lehurrogott, hogy miért ne lehetne 800 spről egyből 1600ra vagy 2000re váltani, nem kell a fokozatosság...ráadásul most kiderült, hogy 1600 sp sem lenne elég, mert az csak 2,4TFlops, és így a GT300 + 0,7 Tflops előnyben van, ami egy GTX260-nyi többletet jelent, ez azért már nem elhanyagolható.

  • Dare2Live

    nagyúr

    csak egyet emelek ki:
    "áadásul most kiderült, hogy 1600 sp sem lenne elég, mert az csak 2,4TFlops..."

    ettől még maradat az ATInak kedvező felállás, hogy "5870" bár gyengébb de nem annyival mint amennyivel olcsobb.

    A dohányzás se káros, sok nagyapa, dédapa száritott diófa levelet tekert újság papírba, és azt szívta. Mégse a tüdőrák vitte el őket sok esetben. by k.feri80

  • Departed

    őstag

    Vajon nem lenne jobb inkább a múltbéli kártyákat és jelenlegi kártyákat összehasonlítani? Mert ugye amik majd lesznek, azokkal kapcsolatban csak találgatások vannak, 100%-os kész infók természetesen még egyik oldalról sincsenek, hogy milyenek lesznek az idei újgenerációs kártyák. :K
    Ami szerintem az igazán fontos, az a létező és kapható kártyák ár/érték aránya. Az első DX10-képes kártyák generációinál kétségkívül az Nvidia volt igazán nyeregben, ez fordult meg az RV770 beköszöntével, amire az Nvidia hosszú ideig nem tudott úgy válaszolni, hogy a teljesítményt és az árat egyszerre jól mozdítsa. Ez köszönhető pl. a gyártástechnológiák különbségének, hogy baromi költséges a GTX2** kártyák előállítása.
    A helyzet most pedig az, hogy az Ati kártyák nagyon fogynak hónapok óta, mert ár-érték arányban nagyon ott vannak. Az meg inkább pozitív, hogy az Nvidia elkezdte helyretenni az árakat, például a legolcsóbb 4890-es és gtx275-ösök között 5 ezer forint a különbség előbbi javára. Tehát el lehet gondolkodni az ártól függetlenül, hogy Ati dx10.1-gyel (a H.A.W.X azért nem volt rossz játék) vagy Nvidia Phisx-szel. :K
    A végén úgyis a vásárló jár jobban, mert szárnyal az Ati, de az Nvidia sem úgy tűnik, hogy hagyni fogja magát...
    Szóval szerintem ne egymást marjuk, hanem mindenki belátása szerint döntsön. Én az Ati kártyámmal vagyok elégedett maximális mértékben, más meg az Nvidia kártyájával játszik remek órákat.
    És a történet folytatódik, mi pedig figyelmesen nyomon követjük, elvégre nagyrészt minden értünk, vásárlókért (is) történik... :R

    VinoRosso: Amint látom jelenleg Ati-d van, a következőd Nvida kártya lesz? Valamiért csalódtál az Ati-ban, vagy jobbnak látod amit az Nvidia kínál? :R

    Xiaomi Mi 9T Pro 6/128GB (Android 10 + MIUI 11)

  • VinoRosso

    addikt

    Nem csalódtam az atiban, bár több ati kártyával volt gondom mint nvdiával, vagyis inkább az ati driverekkel volt problémám. Nem fogom én egyiknek se a pártját Isten ments, csak nem bírom, ha valaki szemellenzőt hord, és közbe oltogat a hülyeségeivel. Az éremnek mind2 oldalát illik figyelembe venni, ha teljes képet akarunk kapni, és sokan hajlamosak megfeledkezni olyan dolgokról, amik számukra nem szinmpatikusak, és extrapolálni a kedvező részleteket, mintha azok az kép egészére jellemzőek lennének. Amúgy én elég sűrűn váltogatom a kártyáimat, részben anyagi okokból, részben meg ez a hobbim. Idén idáig volt 3 ATI és 3 Nvidia, szóval tényleg senki nem mondhatja, hogy bármelyikkel szemben is elfogult lennék. 3850el tökéletesen meg vagyok elégedve, de sajnos úgy hozta a sors, hogy meg kell szabadulnom tőle :( . 3870ből volt 3 darab, midn3 esetében rengeteg problémám volt a driverekkel, pedig az első és az utolsó közti intervallum 1 évet felölel, leszámítva 1-2 drivert az összes katát kipróbáltam ami az elmúlt 1,5 évben kijött. Volt még egy 3650em is idén, az sem volt rossz, de inkább olcsó volt mint jó :D , ezzel semmi gondom nem volt, simán fel lehetett húzni 3670 szintjére sőt még tovább is, de komoly grafikai munkára ez nagyon harmatos már. Tavaly még volt 4850 ez elég is jó volt, semmi problémám nem volt vele, addig amig meg nem pusztult 2 hónappal vásárlás után egyik napról a másikra, és mivel nagyon sok ismerősöm ugyanígy járt, ezért gariból visszajövő kártyát lecseréltem egy 9600GTre inkább. Volt még egy 3870 CF-öm, életemben nem szívtam annyit VGA-val, mint ezekkel p35ben, 2 hétig voltak meg aztán lecseréltem egy GX2re. Az se volt túl jó, úgyhogy azt meg 8800GTXre cseréltem, le meg volt még 8800GTS-em( G92 es) de a kettő közül inkább a GTXet tartottam meg mert stabilabb fps-eket produkált, aztán hébe hóba cserélgettem még egy csomó kártyát 8400GStől 8800GTig bezárólag szinte mindent, ezeket nem írom le mert megőszülök, mire vége lenne. :D

    (#254) Dare2Live ;)ersze hogy marad6, egyelőre minden nyitott, ezért bármilyen kijelentés csak esélylatolgatás, hogy ki nyeri a BL döntőt, bár az már nagyobb valószínűséggel sejthető. ;]

    [ Szerkesztve ]

  • Departed

    őstag

    Köszi a beszámolót! Tehát állandóan át kéne irogatnod a cuccok részedet, a folyamatos nyomonkövetéshez ;)
    Hát nálam Voodoo3-->Geforce4MX-->Geforce FX5600 (jáj) -->Radeon 9700Pro --> X800GTO2@X850XTPE ---> X1800XL ---> HD4850 a sorrend, tehát mint látható, Nvidiák aztán Ati-k jöttek a gépembe, meg is mondom miért.
    Az Nvidia mindkét kártyája viszonylag olcsó volt, de ár/érték arányban egyáltalán nem voltak rendben (főleg az 5600, az valami rosszullét/idegroham lehetett amikor megvettem, két hónap múlva repült is), és valahogy mivel én élsimítás-fan vagyok - jelmondatom: le a recékkel - én úgy emlékszem hogy gondjaik voltak sok esetben velük, emellett az Ati-jaim fényévekkel jobban tuningolhatóak voltak mindigis mint az NV kártyák. És valahogy számomra mindig stabilan működőek. :K
    És végül a valaha volt legjobb kártyám a 4850, ami ár/érték arányban égbekiáltó módon adott egy nagy pofont az NV-nek. Tájékozódtam is hogy miért, hát a gyártástechnológia fejlettsége miatt. És ez mostanában egyre jobban kijön ahogy tűnnek el az NV logók a játékokból.
    Fan-nak nem mondanám magam, ésszerűen döntök inkább, és a max 35k-s kategóriában (annyiért vettem októberben) az Ati a befutó, 1680-ban meg tökéletes a 4850.
    Ami miatt viszont itt is vagyok, hogy érdekel hogy az NV miket mutat föl most és a jövőben, és egyenlőre nem igazán megfelelő konkurens termékeket.
    De mint mondtam, várom a fejleményeket, addig meg futtatok mindent maxon AA-val a Sapphire remekével :K
    A lényeg viszont marad: hajrá Nvidia, főzzetek ki valami ütőset :K

    Xiaomi Mi 9T Pro 6/128GB (Android 10 + MIUI 11)

  • Abu85

    HÁZIGAZDA

    A Stormrise-ban igaz, hogy a DX10-ben is gyorsabb a Radeon a konkurens GeForce-nál, de a DX10.1 még +25%-ot tesz rá a négymintás SSAO és árnyék szűrés miatt - Gather4 előnyök, negyedannyi munka ugyanazzal a végeredménnyel. Erről a GDC-n beszéltek a játékfejlesztők (Techland, DICE, Creative Assembly, Ubisoft Montreal és EA Phenomic) ... itt a közös anyaguk ... [link]
    A Far Cry 2-őt az picit aranyos, azt ugyanis azért írták meg DX10.1-re, hogy az AMD egy fázissal többet számoljon, mint a GeForce ezzel lassítva a Radeon kártyákat. Ezért nincs például DX10 mód engedélyezve a Radeonoknak, mert akkor ugyanannyit számolnának a kártyák, az az egy fázis az kb. 10-15% mínusz az AA teljesítményen a Radeonoknak. Persze előny, hogy az alpha teszt objektumoknál is van AA, de ezekből az objektumokból nincs sok a játékban. Az Ubisoft például a Far Cry 2-nél sokallt be az NVIDIA-ra ... ezek után az NV a szerződésre hivatkozva még a PhysX-et is erőltetni akarta, így az Ubisoft inkább kivásárolta magát TWIMTBP kötelezettséges alól.
    A S.T.A.L.K.E.R. Clear Sky az AA nélkül gyorsabb DX10.1 módban és sokkal szebb ... össze van hasonlítva. AA-val meg lassabb a DX10.1 mód, de az Alpha test miatt több a számítás is, tehát összességében ott vagyunk, hogy az AMD a konkurens GeForce rendszerekkel hasonló sebességet ér el látványosan jobb képminőség mellett.(ezt meg is írtuk) Extra GDC anyag a GSC-től - [link]
    A PhysX-et akkor hozzuk fel példának, ha ipari platformba lesz építve, addig csak cukor nélküli cukormáz, ami borítékolható, hogy ki fog halni. Az Anandtech már megírta róla a nem túl rózsás véleményét. Mi újságírók - minő meglepetés - újságírók vagyunk. ;] Minden szempontot a felhasználó érdekéhez kell viszonyítanunk. A gyártók érdekét kb. leszarjuk, nem érdekel minket. :)) Elmegyünk a sajtótájékoztatókra, bratyizunk velük, de a marketingmaszlagot nem adjuk át a világnak, mert az nem érdekel senkit, max a fanokat. Innentől kezdve van egy szoros határvonal a dolgokban, amelyik technika nem épül ipari szabványra, az elgondolás szinten halott, tehát nem veszünk róla tudomást, mert az elmúlt 10-14 év tapasztalata alapján minden ilyen (nem szabványos) megoldás kihalt. És ezek bizony tények, ha már egy megoldás át ment volna a szitán, akkor más lenne a nézőpont, de az összes gyártói technológia a kukában végezte, mert jött rá egy általános független megoldás (ide is megérkezett az OpenCL és év végére már lesz Compute Shader, tehát baromira nem nehéz kitalálni, hogy a CUDA és az Ati Stream az bukó a PC-s VGA piacon). Nem véletlen, hogy az NV felvetette a Physx OpenCL-be való pártolását, mert az Intel és az AMD a Havok-ot beteszi a szabványos platformokba. Itt látszanak egyelőre az érdekkülönbségek. Az Intelnek és az AMD-nek az számít, hogy a Havok elterjedjen, az NVIDIA-at nem érdekli a PhysX, ennek a technikának csak az a célja, hogy az AMD-t és utána az Intelt rávegye a CUDA támogatásra, hogy az NV saját rendszere legyen a szabvány teljesen GeForce-ra optimalizálva. Innentől kezdve az AMD jöhet az kis chipekkel és a "kivégzős" Sweet Spot politikájával, a Multi GPU-s skálázást megölik a CUDA-n és éljen, az NV nyert. Ez az egész lényege. Csak a CUDA valamiért nem akar terjedni a játékfejlesztők körében. Még mindig a DX a fő platform és az OpenCL, Compute Shader felé kacsingatnak a jövőre nézve (ahogy ez a GDC-n ki is derült ... mindenki a Havok-ot figyelte a PhysX Apex bemutató pedig nem éppen telt ház mellett volt lezavarva). És nem azért érdekelte a fejlesztőket a Havok, mert nekik ez új, hanem azért, mert orrba-szájba hangoztatták, hogy a Havok rendszer platformfüggetlen. Nyilván ha az NV akar a PhysX-el kezdeni valamit, akkor ki kell szakítania a CUDA-ból. :)
    Rosszul értelmezed a PhysX támogatását is. Az, hogy egy játék a PhysX API-re épül nem jelenti automatikusan a hardveres támogatást, ugyanis az platform, tartalmaz egy szoftveres és egy hardveres kódolást. Ergo a fejlesztő eldöntheti, hogy használni akarja-e a hardveres fizikát vagy nem. Speciel UE3-as játékból ami használja a fizikai gyorsítást az az UT3, a Mirror's Edge és majd a Star Tales (valamikor kijön idén). Ezenkívül támogatja a GeForce gyorsított fizikát: Ghosh Recon Advanced Warfighter 2, Warmonger, Sacred 2, Cryostasis. Emellett PhysX lesz még idén: Shattered Horizon, Metal Knight Zero, Metro 2033, U-wars. Van még több hardveres PhysX játék is, de az kompatibilítási problémák miatt csak a PhysX kártyán tud működni. Természetesen a PhysX kártyát az új GeForce PhysX játékok is támogatják, bár itt meg kell jegyezni, hogy normális kód csak az Unreal Engine 3-ban van a gyorsítóhoz írva. Ez gyakorlatilag azt jelenti, hogy helyenként szart sem ér a rendszer (pl.: Cryostasis, Sacred 2). - na jó a szarnál azért többet ér, de csodát ne várjatok. :D
    Ezenkívül még jön még pár Physx játék idén, de ezekről az NDA miatt nem nyilatkozhatom ... és a DX10.1-et, valamint a tesszellátort támogató játékok is titkosak. Sry srácok, de megkötötték a kezemet ... még a számukat sem mondhatom el ... és ezt komolyan veszik (priviben sincs infó :N ), majd ha lejárnak az NDA-k, akkor elárulom. :K

    Az RV870 - GT300-ról még korai beszélni. Eleve semmi hivatalos anyag nincs, hogy gyakorlatilag milyen chipek lesznek. Ha a nem hivatalos infókat vesszük alapul, akkor gázban van az NV, mert az RV870 az 1200 SP-jével kb. 160-170 mm^2 lesz. Amiből egy X2 baromi olcsó, és kurva gyors. A GT300-at az 512 SP-vel és megváltozott ütemezővel 430 mm^2 főlé érdemes tenni, de inkább 450-460-at mondanék, mert a textúrázócsatornáknak mostantól egy helyett négy szűrő kell a DX11 miatt, ami szintén tranyózábálás. Plusz ugye ott van a cache szervezés, ami az infók szerint továbbra is blokkszintű. Mellesleg, ha az AMD MCM modult csinál az RV870-ből, akkor egy RV870 X4-re is lehetőség van, amire a múlt évi infók szerint idén ősszel lenne támogatás a 8 utas CrossFireX személyében. Továbbá nem említettük, hogy az októberi rajthoz már a Juniusi tape out-nál kvázi hibátlan chip kell, így 6-7 revíziót lehet készíteni amiben javítani kell a felmerült hibákat. Általában 10-12 revízió készül egy chipből a végleges forma előtt. Mérnöki csoda, ha ezt az NV megcsinálja. Az AMD RV770 startja előtti hirtelen órajelemelés gyerekjáték volt anno ehhez képest.

    [ Szerkesztve ]

    A semmi az nem nincs, hanem van. Ha a semmi van, akkor nincs semmi, de ha nincs semmi, akkor valami van, de az nem semmi.

  • schwartz

    addikt

    És végül a valaha volt legjobb kártyám a 4850, ami ár/érték arányban égbekiáltó módon adott egy nagy pofont az NV-nek

    Hidd el, hogy nem lehet mindenre rahuzni ezt az ar/ertek aranyt. (foleg ha nincs mellette kello teljesitmeny)
    Valts csak feljebb egy nagyobb monitorra s majd meglatod mirol beszelek...

    [ Szerkesztve ]

    Ride the Lightning

  • Departed

    őstag

    Nem rég váltottam a 22 colos LG-re a 17-esemről, már ezis nagyobb mint a tévém :D
    Nagyobbam nem hiszem hogy lesz, bár ezt mondtam a 17-esről is :)
    Lényeg ami lényeg: most jól elvagyok minden játékkal maxon, aztán majd ha kell, van mit kikapcsolni (AA, AF), vagy nem ultrára tenni a játékot...bár egyenlőre nincs szó Crysis 2-ről, más meg nem ilyen megfektetős :K

    Xiaomi Mi 9T Pro 6/128GB (Android 10 + MIUI 11)

  • VinoRosso

    addikt

    Igen ezeket már mind ismertem, tele van vele a padlás, hogy miért nem olyan jó dx10.1 alatt a radeon ezekben a játékokban. Igazából magyarázatnak elfogadható, de a tényeken nem változtat. Van 2 játék amiben jóval gyorsabb az rv670< radeon a konkurrens geforcenál a gs miatt, és a többiben meg ugyanolyan fps-t hoz a geforce, vagy jobbat dx10. alatt. Ez nem azt jelenti, hogy nincs előnye a dx10.nek a dx10el szemben, ez a száraz tény csupán. Azt hiszem az is tényként kezelhető, hogy legalább ennyi előny( ha nem több ) is van a pshx-es játékokkal az nv-nek. Lehet, hogy a physx el fog halni ( bár ezt még nem lehet 100%osan kijelenteni ), de abban biztosak lehetünk szerintem mindannyian, hogy előbb fog elsorvadni a radeonok dx10.1 miatti előnye Physxes játékok idén is jönnek, meg jövőre is, viszont az ati előnye csak a GT300 fog tartani a dx10.1el, ami lehet h ősszel már meg is jelenik, ergo van 6 hónapja hátra. kiváncsi leszek, majd jön e physxes dx11-es játék, mert akkor könnyen előfordulhat, hogy visszanyal a fagyi az atinak( pl ha mondjuk a crysis 2 lesz az ).Mindenesetre én a Metro 2033at nagyon várom, mert a GSCből kivált fejlesztőkre épülő csapat csinálta( bár emiatt nem vagoyk benne biztos, hogy ki fog jönni idén ;] ), a Shadow of Chernobyl meg a kedvenc játékom volt. BTW ez dx9es gamma lesz, ennek ellenére elég szépnek igérkezik, legalábbis az előzetes videók és screenshotok alapján. Ha úgy fog futni legalább, mint a stalker anno, akkor szerintem hardvergondjai sem lesznek, mivel azóta a vasak eleget fejlődtek.

  • Abu85

    HÁZIGAZDA

    Tisztázzunk pár dolgot. Egy DX11-es játék szebben néz majd ki és gyorsabban fog futni a DX10.1-es Radeonon, mint a DX10-es GeForce-on. Másrészt ... szerencsére a DX11-ről lehet beszélni, mert nincs róla NDA. Két stúdió dolgozik DX11-es motoron (illetve egy DX10-ből fejlesztett változaton ... ez nem jelent majd problémát, mert a DX11 a DX10 kiterjesztése - tehát nem ilyen kamu DX10 lesz, mint a DX9-nél volt szokás), ahogy az a GDC-n kiderült, ők a DICE (Frostbite Engine) és a Techland (Chorme Engine). Az DX11 váltás egyelőre azért kell, mert az AMD Tesselation SDK nem működik a GeForce-on (világos, hisz AMD SDK ;] ), így a DX11-gyel, kell majd életre kelteni a GT300 tesszellátorát. Ez nem sok munka, a Tessellation SDK-ből könnyű DX11 kompatibilis kódot csinálni. Legalábbis a DICE szerint a DX11 portolás három óra volt. Egyelőre több dologban nem gondolkodnak a DX11-nél, mert a Compute Shaderen kívül, minden szükséges dolgot tud a DX10.1 (illetve a Compute Shadert is támogatja, csak némi megkötéssel). Gyakorlatilag az új textúratömörítési eljárások szintén emulálhatók a DX10/10.1-es karikon ... persze némileg lassabban. A Gather4 mint legfontosabb dolog, ott van a DX10.1-ben.

    Sajnos az NV az elmúlt hetek alapján nagyon ramaty helyzetben van. Voltam a héten konferencián. Most már nem az átlagos teljesítménnyel, hanem egy-egy megvett játékkal támadnak a zöldek.
    Az NV GF GTX 275 PR doksija egyszerűen teljesen más elvre épült, mint a régiek. Még a GTX 295 megjelenésénél fel voltak sorolva a top játékok és le volt mérve a a HD 4870 X2 teljesítménye. (Természetesen itt bevett szokás, hogy szándékosan olyan beállításokat keresnek, ahol a saját kari nyer. Ez nyilván PR doksi, az AMD is ezt csinálja. Eredményt ugye egyikük sem tud hamisítani, mert ellenőrizve vannak, de nyilván olyan beállításon tesztelnek amit jónak látnak, csak ugyanazok legyenek a körülmények, mindkét rendszernél.)
    A GTX 275-nél már ilyenről nem találtunk infót a PR anyagban, mert az NV alig talált olyan beállítást, ahol a HD 4890 verve volt. Két játékért meg kb. felesleges grafikont csinálni, mert még a végén rákérdeztek volna, hogy miért hiányzik a Crysis Warhead, Enemy Territory Quake Wars ... stb.
    Ettől függetlenül sírva röhögtek az anyagon az újságírók, mert le volt tesztelve az UT 3 Physx-es pályákkal, a Mirror's Edge Physx móddal, meg a Physx-es techdemók. És képzeld nyertek a GeForce-ok a procival számoló Radeonok ellen. ;]

    Ha lehet úgy fogalmazni jelenleg az NVIDIA játékokat vesz ... kb. havi egyet, és az összes többi programban el lesznek verve. Nem tudnak jönni a PR anyagokban az ár/teljesítménnyel, mert a konkurens Radeonok gyorsabbak és olcsóbbak. Árcsökkentésről meg szó sem lehet. kb ... ez a mai siralmas helyzet. A jövőbeli PhysX-ről meg azért nem beszélnek, mert kérdéses a jövő. Miért támogasson egy fejlesztő egy olyan technikát, ami a többségnek nem áll rendelkezésre.

    A Crytek sosem fog Physx-et használni. Maga a Boss mondta, hogy nem akarnak külsős technikát alkalmazni, továbbra is saját rendszert csinálnak mindenre.

    A PhysX-nek amúgy van menekülő útvonala. Ki kell szedni a CUDA-ból és életben marad. Ellenkező esetben meg tényleg nem nehéz belátni mi lesz vele. Nem tudok olyan technológiáról, amit nem végzett volna ki egy független platformra épülő. :) Mellesleg az NV-nek sokkal jobb GeForce eladási mutatók kellenének a CUDA-s Physxre. A jelenlegi HD 4890:GTX 275 féle 30:1 az baromi kevés. A többség gépe a lényeg a fejlesztőknek.

    A semmi az nem nincs, hanem van. Ha a semmi van, akkor nincs semmi, de ha nincs semmi, akkor valami van, de az nem semmi.

  • tlac

    nagyúr

    Ez nem sok munka, a Tessellation SDK-ből könnyű DX11 kompatibilis kódot csinálni.

    a másik irányból milyen?
    a dx11-es tesszelátor vmi tákolással fog menni dx10.1-en?

  • VinoRosso

    addikt

    Egy DX11-es játék szebben néz majd ki és gyorsabban fog futni a DX10.1-es Radeonon, mint a DX10-es GeForce-on

    naná, mivel a dx10es geforcok nem támogatnak dx11-et. Ez kb olyan mélyenszántó gondolat, mintha azt mondanád hogy a sas gyorsabban repül a struccnál. De a GT300 mióta dx10es? :U

    Ha lehet úgy fogalmazni jelenleg az NVIDIA játékokat vesz ..

    Nem jelenleg, ez mindig is így volt. De nem csak az nvidianál van ez így. Elég csak a doom3/HL esetére visszagondolni. Lobbi mindig is volt/van/lesz, nincs ezzel semmi gond, amig van lehetősége választani a fejlesztőnek és a felheasználónak. Majd amikor nem lesz, hanem azt mondják hogy ezt kell használnod, mert nincs más, akkor lesznek gondok(illetve ott vannak)...

    A Crytek sosem fog Physx-et használni. Maga a Boss mondta

    Yerliék ilyet szóltak volna? mikor? Melyikük mondta? Furcsa ezt így hallani, mert szerintem elég szoros kapcsoaltban lehetnek az nvidiával ahhoz, hogy legalább elgondolkodjanak a phsyx használatán. Pláne most, hogy az erőforrásaik nagy részét
    konzolos fejelsztésre fogják fordítani.Alapjában véve nincs semmi gond a cry2es fizikával, viszont állítólag elég "kusza" a kód, és sokba kerülne rendbettenni. hogy újrafelhasználható legyen, vagy nagyobb mértékű változtatást hajtsanak rajta végre. Nem lepne meg, ha elkezdenék használni a phsyxet, mert lehet, hogy anyagilag jobban kijönnek vele, mint egy reakftorált felturbózott cry2es fizikával. Arról nem is beszélve, hogy mennyit gyorsulna tőle az engine. Azt meg gondolhatod, hogy ha a cry3 physxel fog kijnni, az mennyire megéri az nvidiának. Bizony nem csodálkoznék azon, ha már felhozták volna nekik a témát a zöldek.

    Miért támogasson egy fejlesztő egy olyan technikát, ami a többségnek nem áll rendelkezésre.

    Csak hipotetikusan:

    Az nvidia ősszel piacra dob egy dx11es VGA-t, ami legalább ugyanolyan jó lesz árban és teljesítményben, mint a konkurrens temék. Ezesetben nem beszélhetünk sem a dx10.1 támogatás hiányáról, sem arról, hogy kevsé nvidia kari van a usereknél. Erre értettem azt, hogy visszanyal a fagyi, mert ha az nv lobbinak sierül bezsebelnie egy két neves játékot phsyx támogatással, akkor az ati lesz abban a helyzetben, amiben most az nvidia van, mert userek tömkelege fogja venni az nv karikat azért, hogy hiperszuper robbanásokat lásson, szétpüfölhesse a berendezést, ementáli sajtot csináljon a falakból, roncsderbit játszon a kedvenc hummerével stb...lefogadom hogy akkor is lesznek majd olyanok, akik azt mondják hogy az a csúnya ati nem támogatja a physxet, pedig az milyen hiper szuper jó cucc, de az ilyenektől áll az égnek a hajam. Ez a verseny, és ez így van rendjén, az ati a büdös életbe nem fog támogatni semmit, ami az nvidiától jön és vica versa. Enélkül nem lenne fejlődés, hanem szépen megszületnének a paktumok a hátunk mögött. Így viszont mindegyik gyártó fejlesztésre van kényszerítve,a mi nekünk csak jó. Na most...játékokat feljeszteni nem pár hónap, hanem egy hosszú fáradságos folymat. Aki pénz szerez egy ilyenre, és engeriát áldoz rá, az igyekszik minél tovább elnyújtani a termék életciklusában a gyümölcsöző szakaszt. Vagyis biztosra vehető, ha most jön egy csomó dx9es játék, és éppen csak szálingóznak a dx10.1re épülők, és ősztől már elérhető lesz a teljesen dx11, nem lesz túl sok játék, ami kimondottan dx10.1re alapoz. Ergo arányaiban sok dx9es játék volt/van, kevés dx10/dx10.1, és sok dx11es fog készülni. Az nv nem csinál mást, csak követi ezt a hosszú távú trendet, ezért hosszú távú stratégiát alkalmaz, ezért csinál komplex chipet, ezért akar x86os liszenszet, mert nem félévekben gondolkodik. Az atinak meg egyszerűen nem volt más esélye, csak az, hogy rövid távú stratégiát kövessen, mert szorongatott helyzetben volt a g80 miatt, és az amdtől sem jött úgy a jatt, mert K9-et meg a c2d szorongatta. Akkor is egy csomóan temették az amd-t meg az atit is, érdekes módon nem mentek csődbe, pedig közel sem voltak olyan tőkeerősek mint az nvidia. Ezért kevés esélyét látom annak, hogy az nvidia kiszálljon a grafikából. Ha ki akarnának szállni, akkor nem ölnének dollármillliókat egy olyan architektúra elkészítésébe, ami elve nem lehet sikeres, hanem szépen felállnának, és azt mondanák, hogy mostantól kezdve ezt meg ezt fogjuk csinálni, mert nem fogunk labdába rúgni itt és itt, ahogyan tette pl az abit. Ráadásul ők elég jó lapokat csináltak, csak nem érte meg nekik a gyártás, és simán relaizálódott bennük, hogy ha folytatják nem sok babér terem nekik. Tartom annyira az nvidiát, hogy képesek efféle ésszerű döntéseket hozni, és mivl nem hallani semmiféle kivonulásról, ezért puszta rosszindulatnak tételezem fel az efféle találgatásokat azoktól, akik valamiért fújnak az nvidiára, realitás alapja szvsz nincsen. Ha majd felszáll a vörös köd, és kitisztulnak a gondolataid, akkor te is meg fogod érteni ezt, mert nem egy bonyolult dolog, másrészt meg nem vagy egy idóta, csak elfogult.

    Nem tudok olyan technológiáról, amit nem végzett volna ki egy független platformra épülő.

    Mint tudjuk a directx MS független, multiplatform szoftver, ezért kell minden egyes új dxnél is új windowst feltenni. Persze...

  • tlac

    nagyúr

    Csak hipotetikusan:
    Az nvidia ősszel piacra dob egy dx11es VGA-t, ami legalább ugyanolyan jó lesz árban és teljesítményben, mint a konkurrens temék.
    ...

    tartok tőle, hogy ha az nv jó kártyát is csinál dx11-ben, nem fogják sokkal többen venni, mint most
    egyrészt most az van a fejekben, hogy az ati jobb, másrészt ha igaz lesz, hogy dx11-ben a 4830/50-es kártyák is elfogadhatóan fognak menni a dx10.1 miatt, akkor ezek a tulajdonosok (akikből rengeteg van) nem fognak ugrani dx11-es nv-t venni

    [ Szerkesztve ]

  • Abu85

    HÁZIGAZDA

    De a DX10.1-es kártya kvázi ugyanazt a teljesítményt és képminőséget hozza a DX11-ben, mint egy natív DX11-es. Ezzel szemben a DX10-es kártya lassabb lesz és gyengébb képminőséget állít elő.
    Ráadásul a Tesselation SDK-vel az első játékok alatt egyetlen HD Radeon nem szenved hátrányt, mert a legelső DX11-es címek a tesszellátor használatára törekednek. Márpedig a tesszellált felületnek az xBox 360-on is kell működni, így az eljárás megfelelő lesz az összes tesszellátorral rendelkező kártya számára.

    Tévedés a gyártók nem vesznek játékokat. Kapcsolatokat teremtenek, de a játékért még soha senki nem fizetett. Olyan eset volt, amikor az NV némi anyagi juttatás fejében megkérte a fejlesztőt, hogy küldjék el az AMD csapatát, ha bejelentkeznek (Hellgate: London) ... de ennyi volt. A PhysX támogatását viszont meg kell venni. A Mirror's Edgebe is 5 milláért rakták bele. Világos, hogy megkérik az árát a fejlesztők, mert kvázi kizárják az elterjedtebb rendszer felhasználóit a max. grafikából (ugye teljesen világos, hogy a PhysX az nem fizikaként, hanem grafikaként van jelen - de ez lényegtelen). Az NV-nek konkrétan venni kell mostantól a játékokat, ha eladást akar generálni, mert ezek nélkül nincs az az ember, aki drágábban vesz GeForce-ot a gyorsabb Radeon mellett (fanokra ugye nem lehet építeni ... általában az emberek nagy többsége a saját érdekét nézi).

    A Crytek TWIMTBP szerződése már a múlt évben lejárt és nem újították meg. Ellenben beálltak az AMD-hez, mivel a CryEngine 3 főleg az Xbox 360-hoz készül, és a Xenos az AMD fejlesztés. Nyilván nem kérdés, hogy az AMD ismeri a legjobban a rendszert. A Crytek a saját érdekét nézi, az NV-t kb. leszarja. Jelenleg az AMD tud nekik segíteni.
    A fizikáról a GDC-n nyilatkozott Yerli, amikor megkérdezték, hogy vesznek-e PhysX-et/Havok-ot ... arra rögtön rávágta, hogy nem ... válasz röviden: teljesítményben sokkal jobban járnak egy saját rendszerrel, mert azt a motor igényei szerint fejlesztik. Bár azt megjegyezte, hogy a Havok bemutató nagyon tetszett neki, de nem lát benne olyan dolgot, amit a jelenlegi saját fejlesztésű rendszerük ne tudna megcsinálni.

    Az őszi GT300 starthoz mondom, hogy kvázi hibátlan type out kell. Ilyen a történelemben sohasem fordult elő. Nem mondom, hogy nem lehetséges, de a realitás talaján maradva 40 nm-en a január a reális időpont. Persze ettől most vonatkoztassunk el. Jön a GT300 és kész. Mit fog adni a DX11 az elején. Tesszellátor támogatást ... a többi újításhoz idő kell, mint a DX10 esetében. Persze nem sok, de minimum egy év. Eleve a fejlesztők a gyártók dokumentumai alapján dolgoznak, jelenleg a Techland és a DICE aki hozzáfogott a DX11 portolásba, de messze nem viszik túlzásba. Mellesleg ez a két stúdió DX10 motort csinált, tehát AMD partnerek. Ugye csak az AMD-nek vannak fejlett DX10 dokumentációi, így a stúdiók azoktól a cégektől kérnek segítséget, akik segíthetnek nekik. DX10-ben pedig az AMD a top, így máshoz nem tudnak menni. Az NV a CUDA-val volt elfoglalva, így az ő rendszerprogramozói nem annyira képzettek, mint az AMD-sek.
    A userek tömkelege nem fog venni DX11-es karit. Pláne nem méregdrága NV-t, mert a GT300 nem az olcsóbb szegmensbe nevez (gazdasági válság stb.). A középkategóriás DX11 chip pedig az NV-től nem az év végén jön. Persze konkrét infót megint nem mondhatok, de általában 3-4 hónap szokott lenni az átfutás. Talán most sem lesz több. :N
    Mellesleg ott egy kellemetlenség is, az RV870 személyében, ami várhatóan előbb jön a GT300-nál. Elméletben az AMD a GT300 startra időzítheti az X2 verziót. Mi a garancia arra, hogy a GT300-at választják. A PhysX annyira nem érdekli az embereket, nézd meg a felméréseket. Mindenki a teljesítményre hajt elenyésző tömeg választ a DX10.1+tesszellátor miatt kártyát, és még elenyészőbb a PhysX miatt. A vásárlók többsége szerintem azt sem tudja mi az a DirectX, de hallotta, hogy valami jó dolog, és nézi a minél nagyobb számot. A PhysX-ről meg kb. fogalma sincs ... azt sem tudja, hogy létezik. :)

    A G80 az eleve az Ati csődjére ment. Csak azért nem mentek a vörösök a csődbe, mert az AMD-nek elég tartaléka volt. Ha a felvásárlás nem történik meg, akkor már rég az NVIDIA az egyeduralkodó a CUDA-jával. :K

    És a DX az melyik grafikus processzorgyártóhoz kapcsolható? Azt az MS fejlesztette, ahogy leírod, aki nem gyárt grafikus processzort ... ergo a cég totálisan gyártófüggetlen (bár durván AMD puszipajtás, de ezt most hagyjuk ;] ) a PC-s játékpiac életben tartása a célja.

    tlac: A HD Radeon tesszellátort a Tesselation SDK-n keresztül lehet támogatni. Ha van a játéknak Xbox 360 verziója, akkor copy-paste, ha nincs, akkor meg kell írni a kódot. Nyilván DX11 hiányában mindenki a Tesselation SDK-n nyomul, így a jelenleg fejlesztett projektek tesselation kódja meg lesz írva a Radeonokra, és a DX11 kód lesz az extra meló. De ez a DICE szerint 3 óra pluszmunka (konkrét tapasztalat birtokának hiányában én elhiszem nekik :) )
    A DX11 tesszellátor egyébként maximum 64x-es tesszellálásra képes, míg a Xenos 15x-ös.

    [ Szerkesztve ]

    A semmi az nem nincs, hanem van. Ha a semmi van, akkor nincs semmi, de ha nincs semmi, akkor valami van, de az nem semmi.

  • tlac

    nagyúr

    A DX11 tesszellátor egyébként maximum 64x-es tesszellálásra képes, míg a Xenos 15x-ös.

    van ennek jelentősége, hogy így kiemelted ezt a különbséget?
    tehát pl. a 15x-ösön jól láthatóan "szögletesebbek" lesznek a tárgyak?

  • schwartz

    addikt

    mert ezek nélkül nincs az az ember, aki drágábban vesz GeForce-ot a gyorsabb Radeon mellett

    Varjuk meg mar azokat a gyorsabb Radeonokat... :D A teljesitmenyt nezve, az utobbi nyolc evben csak egyszer sikerult igazan elonyt kovacsolni az ATI-nek. (az R300-al)

    Ride the Lightning

  • Abu85

    HÁZIGAZDA

    Hát nem lesz jól látható, mert a 15x-ös is durván jó minősége ad, csak úgy mondtam, hogy az egység különbözik. Alapvetően ez az eltérés jelen van.

    schwartz: Ha ez nem így lenne, akkor nem 30:1 lenne a HD 4890:GTX275 eladási mutató. :U
    (és ezt már nem szabad az gyenge beszerezhetőségre fogni, mert még a múlt héten is ilyen eredményeket küldtek a kereskedők) Ennek a csatának az NVIDIA részéről már nincs értelme ... logikátlan az árverseny is hiszen az AMD sokkal olcsóbban gyárt. Az egyetlen kiút a GT300. A Q2-től persze annyiban egyszerűbb lesz az NVIDIA-nak, hogy a TSMC-nél már csak feleannyi chipet gyártat, mint a Q1-ben, bár még így is sok marad majd raktáron.

    [ Szerkesztve ]

    A semmi az nem nincs, hanem van. Ha a semmi van, akkor nincs semmi, de ha nincs semmi, akkor valami van, de az nem semmi.

  • biggamer

    veterán

    TSMC + 590 millió USD = 40 nm-es gyártósor : [link]

    Ha az életben minden fontos dolgot szemmel el lehetne intézni, akkor az utcákon csak halottak és terhes nők lennének ... WOT / BF3 / BF4 ... biggamerHUN

  • rocket

    nagyúr

    "az r800 lesz bajban a 1200 SP-orával a 3,1 Terás GT300 ellen."

    Az amirol beszelsz az RV870, ha lesz R800 az biztos nem 1200SP lesz, hanem pl. 2x1200SP (dual GPU, vagy dual core MCM majd kiderul) , ehez veszunk mondjuk 800mhz-es orajelet, es maris tobb mint 3.8Tflop/s a teljesitmenye.

    Egyebkent ahogy eddig is, ezutan is felesleges a nyers teljesitmeny alapjan barmilyen kovetkeztetest levonni, foleg honapokkal a megjelenes elott pletykakbol kiindulva ;)

    [ Szerkesztve ]

    "A lower resolution generally means that there can be more quality per pixel."

  • Beowulf_78

    addikt

    Van azért még lóvé az nV-nél... ;] Ha jól számolom ez kb. 120 milliárd ft. :Y ;]

    [ Szerkesztve ]

    Szakmai kérdésekkel ne pü-ben keress....használd a megfelelő topikot! A 4890 CF tesztet amit elkezdtem, nem fogom befejezni. Majd megcsinálja más. A meglévő nVidia-s cikkeimet pedig törölni fogom.

  • Dark KillerX

    őstag

    Lóvé még van :K ,csak én érzem úgy,hogy mostanság ciki Nv-t venni,mert annyira beindult a flame az Ati tulajok részéről,hogy szinte már vírusszerűen terjed át minden Nv topikra. :U .

    [ Szerkesztve ]

  • old gray

    addikt

    Hát lehet feltörték a malacperselyt és az utolsó filléreket is ebbe a projectbe pumpálják. :DD

    Broadcasting lies on the television screen / Trying to get us hooked on your american dream

  • biggamer

    veterán

    Lehet, hogy örülnél, ha annyi pénzed lenne, mint amennyi maradt még pluszban nekik. ;]

    Ha az életben minden fontos dolgot szemmel el lehetne intézni, akkor az utcákon csak halottak és terhes nők lennének ... WOT / BF3 / BF4 ... biggamerHUN

  • old gray

    addikt

    Te honnan tudod, hogy maradt nekik? Lehet már rég hitelekből élnek. :P ;]

    Broadcasting lies on the television screen / Trying to get us hooked on your american dream

  • Beowulf_78

    addikt

    Igen. A flame az beindult Ati fan-ok részéről. Ez csak azért blama, mert ez őket minősíti. :B Valahogy az nV-s tábor központi magja értelmesebben adja elő magát. Inkább úgy fogalmaznék, blama lenne most ATI-ra váltani a normális júzernek, mert egyből meg lenne bélyegezve a sok idióta ATI júzer miatt. :U ;] Arra nem is gondolnak a kis butuskák ha az nV-nek "baja esne" a VGA piacon, és az ATI lenne az egyetlen vesenyképes gyártó, akkor olyan mértékben lennének pofátlan árak, hogy aki ez eddig megtehette pl. a 4850/4870-et az már örülne ha a belépő szintű kártyákat ki tudná fizetni. :U Akkor meg el lehetne gondolkodni hogy lett volna jobb, és lehetne fikázni az egyetlen VGA gyártót...csak már kicsit későn. Mondjuk ezt átgondolni, tényleg hatalmas ész kell. Ezért blama amit csinálnak..

    [ Szerkesztve ]

    Szakmai kérdésekkel ne pü-ben keress....használd a megfelelő topikot! A 4890 CF tesztet amit elkezdtem, nem fogom befejezni. Majd megcsinálja más. A meglévő nVidia-s cikkeimet pedig törölni fogom.

  • GuB3Ra

    aktív tag

    Mert a 8800ultrának + a gtx280nak nem volt pofátlan az ára ;]
    És mielőtt ati fan lennék ez életem első radeonja idáig csak nv volt(sli is)

    [ Szerkesztve ]

    Daark minimalism

  • Sweet Lou 6

    addikt

    Pár év múlva nvidia nélkül is lesz konkurenciája az amd-nek (Intel Larrabee)

    Ha két lehetőség közt nem tudsz dönteni, csinálj egy harmadikat.

  • rocket

    nagyúr

    A TSMC koltotte el fejlesztesekre azt a penzt nem az NV.

    "A lower resolution generally means that there can be more quality per pixel."

  • Abu85

    HÁZIGAZDA

    Addig meg elleszünk az aknakeresőn mi? :DD

    [ Szerkesztve ]

    A semmi az nem nincs, hanem van. Ha a semmi van, akkor nincs semmi, de ha nincs semmi, akkor valami van, de az nem semmi.

  • Sweet Lou 6

    addikt

    Ott van még a pasziánsz is :D

    Ha pesszimistán nézek az NV-ra, még akkor is minimum kikell bírnia pár évig (van ott tartalék, amd se ment csődbe...)

    Ha két lehetőség közt nem tudsz dönteni, csinálj egy harmadikat.

  • Abu85

    HÁZIGAZDA

    Persze ... a Q4-gyel megcsapta őket a probléma szele. Ők is tudják, hogy nem megy jól. Meg a vezetőség úgyis megpróbálja kiegyensúlyozni a negyedéveket. Pénztartalék az van, nem bőséges be egy időre elég.
    Igazából az Intel is csak szívatja az NV-t, csődbe tuti nem fogja vinni, mert okosabbak a zöldek annál. Csak finoman sugallják nekik, hogy már nem szívesen látott vendég a PC-s piacon ... "Maradhatsz, de szopni fogsz." ;]

    A semmi az nem nincs, hanem van. Ha a semmi van, akkor nincs semmi, de ha nincs semmi, akkor valami van, de az nem semmi.

  • ashot

    tag

    En csak azt latom, hogy a jelenbol kiindulva vannak jatekok amik ATIn futnak jobban, vannak amik Nvidian.
    Es ehez csak annyit tennek hozza hogy amik Nvidian futnak jobban, tehat mondjuk 50-60fps el azok ATIn 40fps el futnak, amik ATIn futnak jobban, tehat 200fps el az nvidian csak 170fpsel fut:)

    Vagy nem igy van?

    Marton

    [ Szerkesztve ]

  • Skizz

    addikt

    Hogyne, általánosíts csak. Ez pont olyan, mint a mai hülye fiatalok. :N Inkább téged minősít, hogy köpsz egyet a másik oldal felé, aztán elhordasz mindenkit neveletlen senkiházinak, aki visszaszól.

    Tudod jól, hogy mindkét oldalon vannak demagóg, beszűkült látáskörű rajongók, akiknek magyarázhatsz akármennyit, de hogy ti értelmesebben adjátok elő magatokat... még mindig ráz a nevetés. :)

    [ Szerkesztve ]

  • Beowulf_78

    addikt

    Bocsánat, ha magadra leltél a hsz-t olvasva. Nem akartalak megbántani. :B ;] :P Csak egy vélemény volt. 100-as papírzsepit tudok küldeni póstán, de a pk-t te fizeted. Ha nem lesz elég a könnyeid felitatására, akkor nem bánom, küldök 2x100db kiszerelést. :K ;] :P

    Szakmai kérdésekkel ne pü-ben keress....használd a megfelelő topikot! A 4890 CF tesztet amit elkezdtem, nem fogom befejezni. Majd megcsinálja más. A meglévő nVidia-s cikkeimet pedig törölni fogom.

  • tzsolesz

    nagyúr

    Valahogy az nV-s tábor központi magja értelmesebben adja elő magát. :DDD

    Ha ezt kihagyod a hsz-odból, akkor király lettél volna. ;) Mert amúgy igazad van, de az hogy az NV-és tábor értelmesebb, az enyhén szólva is nevetséges. Nézz néha át az ATI várós topic-ba, és olvashatsz olyanokat, hogy minden második szót szótárból kell kikeresni, és még akkor az egész estéd rá megy mire lefordítod. :) Megjegyzem, nem tőlem származnak, és nem is kizárólag Abu85-től. :DDD

    [ Szerkesztve ]

  • VinoRosso

    addikt

    Csak pár dologra reagálok mert nincs túl sok időm.

    Tévedés a gyártók nem vesznek játékokat.

    Mi a véleményed erről?

    ATI and Nvidia are now willing to go even further to ensure popular games are optimized for their respective chip architectures. For example, Nvidia sponsored Doom 3, and ATI spent a reported $6m[citation needed] on Half Life 2.When Doom 3 was released, unsurprisingly Nvidia held a large performance lead. ATI analyzed the code, and found shader calculations were being performed manually through a look up table, to compensate for the relatively poor performance of the FX series in this respect. Through application recognition, on the x800 card ATI reportedly found a 30% speed gain[citation needed], just by moving shader calculations to hardware. To this extent, the question of who has the best graphics architecture, is becoming ever harder to answer, as with the increasing complexity of GPUs, performance becomes ever more optimization specific.

    A Crytek a saját érdekét nézi, az NV-t kb. leszarja

    Én úgy tudom, h napi szintű kapcsolatban vannak.

    És a DX az melyik grafikus processzorgyártóhoz kapcsolható? Azt az MS fejlesztette, ahogy leírod, aki nem gyárt grafikus processzort ... ergo a cég totálisan gyártófüggetlen (bár durván AMD puszipajtás, de ezt most hagyjuk ) a PC-s játékpiac életben tartása a célja.

    Ettől még nem lesz plattformfüggetlen.

    Az informatikában platform alatt olyan hardver- és/vagy a szoftverkörnyezetet értünk, amely meghatározza, hogy az adott számítógépen milyen egyéb programok használhatók

    A szoftverkörnyezet legalább olyan fontossággal szerepel a definícióban, mint a hardverkörnyezet. DE! a direcx szoftver, nem hardver. Ezért teljesen irreleváns arra hivatkozni, hogy platformfüggetlen azért, mert széleskörű a hardvertámogatása. DX-es hardvert lehet emulálni szoftveresen, és ha van elég processzor, akkor még normális teljesítménnyel is futnak a dx-es alkalmazások. Erre készül pl az intel, és a tualatin pedig nem kifejezetten dx kombatiblis. Tehát a hardvertől egyetalán nem függ, hogy használható e a dx vagy se. Viszont szoftverkörnyezettől nagyon is függ, mert kompatibilis Wint nem fogsz tudni emulálni sehogyse, ezért nem lehet Xpre dx10, Vistára dx11. És attól sem lesz plattformfüggetlen a dx, ha 20x leírod ugyanazt. Lehet hogy valakibe bele tudod sulykolni, de ez ettől még ugyanolyan hazugság marad. Amúgy teli van hasonló technológiákkal az IT, és még azt sem mondhatom, hogy csak körül kéne nézned, mert a dx is az orrod előtt volt, meg a pár hsz-el korábban említett(!!!) .NET is szintén ilyen, ami a Java MS megfelelője. Szóval itt már kapásból volt 2 dolog, OGL + Java vs DX + .NET ami cáfolja az állításod. Érdekes egyébként, hogy pont a MS az, aki a kezdetektől fogva arra épít, hogy ellop egy ( eseteknént független ) technológiát, aztán mintha ő találta volna fel a spanyol viaszt úgy promótálja, és utána próbálja kiszorítani vele a piacról az eredeti konkurrensét, amiről koppintott( lásd CP/M vs DOS, OGL vs DX, Java vs .NET ) Ennél nagyobb bakot nem is lehetne lőni, mint azt állítani, hogy a MS valaha független terméket gyártott, vagy gyártani fog. A nyakamat merném rátenni, ha belefognának a vga gyártásba, csak az általuk készített vga-n futnának el a játékok win alatt.

  • Departed

    őstag

    Íme az NV-s mag egyik értelmes megnyilvánulása... :U

    Egyébként pont ez a lényeg, amit Tzsolesz mondott, hogy több igazi koponya az ATI-t választók köréből igazán jól meg tudja magyarázni, hogy miért és hol jó az, amit az ATI csinál vga-fejlesztés terén.
    Szívesen olvasunk olyan hsz-t is, ami az Nvidia vga-fejlesztési ötleteiről, jó módszereiről szól. :R

    [ Szerkesztve ]

    Xiaomi Mi 9T Pro 6/128GB (Android 10 + MIUI 11)

  • Abu85

    HÁZIGAZDA

    Az, hogy wikipédia. :) A HL2 baromira nem így zajlott. Tudom, mert elmondták nekem (egyszerű reklámszerződést kötöttek, amiben az volt benne, hogy a Valve játékok beállítómenüjében be kellett rakni egy "legjobban ATI-val fut" feliratot). A Valve azért ment az AMD-hez (ATI-hoz ... lényegében mindegy), mert a DirectX 9-es Source motor alatt tudták, hogy bolhafing az FX teljesítménye, így az NVIDIA semmilyen segítséget nem tudott volna nyújtani, mert szar volt az architektúra az erős shader terhelésre.
    A Doom 3 is baromság, olyannyira, hogy John Carmackről nyíltan lehet tudni, hogy nem egyezik meg senkivel sem reklámszerződésben, sem más támogatásban. Egyszerű munkakapcsolatról lehet szó nála maximum, ami nem hozza hátrányos helyzetbe a konkurens vállalatok termékeit. Carmack külön render rutinokat írt anno a piacon lévő kártyákhoz. Volt az alap ARB a régi termékekhez (GF3, GF4 stb), az NV30 (GF FX), az R200 (Radeon 8500/9000), és az ARB2 a többi Radeonora illetve a jövő grafikus kártyáira.

    Hát rosszul tudod, mert a Crytek a CryEngine 3-on dolgozik, és jelenleg folyamatosan az AMD segítsége kell, mert azt a poligontömeget, valahogy mozgásba kell hozni az XBox 360-on. Ebben hogy tudna segíteni az NVIDIA? Azt sem tudják, hogy a Xenost, hogy kell megfelelően programozni. Ellenben ezt a legjobban az AMD tudja, hiszen ők tervezték a lapkát, tehát tőlük kell segítséget kérni.

    Akkor nevezzük a DirectX-et gyártófüggetlennek (nem Intel, nem AMD, nem NVIDIA, nem VIA). :R Remélem, így már világos, miért lehetetlen a CUDA elterjedése. Mondj egy olyan rendszert a piacon, ami valamelyik gyártóhoz kapcsolódik, és komoly mértékben elterjedt a fejlesztők körében. :) Akár évekre is visszamehetünk. ;)

    Egyébként kb. helytálló, hogy az MS az nem valami találékony, mert általában lop, de a DX-et figyelembe véve. Mond mi gátolta meg abban, a Khronos Group-ot, hogy jobbat csináljon az aktuális DX verziónál? ... mert az MS biztos nem
    Jó dolog mindent rákenni az MS-re, de alapvetően, nem mindig erről van szó.

    [ Szerkesztve ]

    A semmi az nem nincs, hanem van. Ha a semmi van, akkor nincs semmi, de ha nincs semmi, akkor valami van, de az nem semmi.

  • schwartz

    addikt

    hogy több igazi koponya az ATI-t választók köréből igazán jól meg tudja magyarázni, hogy miért és hol jó az, amit az ATI csinál vga-fejlesztés terén.

    Hallgatlak Mester... ;]
    (a szemelyeskedest meg tartsd meg a haverjaidnak)

    [ Szerkesztve ]

    Ride the Lightning

  • schwartz

    addikt

    Mondj egy olyan rendszert a piacon, ami valamelyik gyártóhoz kapcsolódik, és komoly mértékben elterjedt a fejlesztők körében. :) Akár évekre is visszamehetünk. ;)

    A Glide.

    Ride the Lightning

  • Departed

    őstag

    Nem volt szándékomban személyeskedni, csak a tudásvágy hajt, mint itt sokakat. Merthogy érdekel mindkét oldal.
    Koponyaként nem magamra gondoltam, nem vagyok ego, hanem pl. rögtön itt ebben a topikban sokmindent olvashatsz a felépítésekről, ismérvekről, és szívesen olvasnék ilyeneket az Nvidia oldaláról is, hogy melyik elemük, ötletük miben jó, miben jobb az Ati elemeinél. A kultúrált eszmecsere mindig a legjobb :K

    [ Szerkesztve ]

    Xiaomi Mi 9T Pro 6/128GB (Android 10 + MIUI 11)

  • Crytek

    veterán

    Techlandtől nagyon várom már ezt a 3 gamet:

    Dead Island ,Warhound, Chrome 2 - Ahogy csürik csavarják halasszák ezeket még a végén az összes dx11-es lesz :D

    Gigabyte Z170 D3H, i5 6600K@4.4ghz, 2x4GB Kingston Fury Hyper X DDR4, EVGA Supernova 650 G1, Zalman Z9, CM 212+,Zotac 1070Ti AMP! Extreme

  • Abu85

    HÁZIGAZDA

    És hol a glide? Amint jött a DX kihalt. A 3dfx abba halt bele, hogy nem volt képes felfogni, a glide vesztét.

    Crytek: A Techland azt mondta, hogy a motorba most építették be a tesszellátort, de még nem döntötték el, hogy használni fogják-e. Először az új Call Of Juarezt kell befejezni, mert az ubi nyárra kéri.
    Ellenben a Tesselation SDK kód aránylag könnyen portolható DX11-be, így előfordulhat, hogy ezek a játékok DX11-esek lesznek.
    Úgy tom, hogy a DX11-gyel a a DICE és a Techland foglalkozik jelenleg, a többiek még nem merültek bele. Most alapvetően itt az is része a dolognak, hogy a Frostbite és a Chrome Engine 4 az normális DX10 motor, tehát nem nehéz alakítgatni.

    [ Szerkesztve ]

    A semmi az nem nincs, hanem van. Ha a semmi van, akkor nincs semmi, de ha nincs semmi, akkor valami van, de az nem semmi.

  • schwartz

    addikt

    Figyelj, en egy arrogans fasz vagyok s megtortenik neha, hogy beirkalok ezt-azt... :D
    Sajnalom ha magadra vetted azt a hsz-t.

    rögtön itt ebben a topikban sokmindent olvashatsz a felépítésekről, ismérvekről, és szívesen olvasnék ilyeneket az Nvidia oldaláról is, hogy melyik elemük, ötletük miben jó, miben jobb az Ati elemeinél.

    Ez eleve egy NV talalgatos topic. Az NV vs. ATI-nek meg sosem lesz jo vege... :DDD

    [ Szerkesztve ]

    Ride the Lightning

  • Abu85

    HÁZIGAZDA

    Ha akarjátok, akkor holnap felfedem az idei GF Physx játékokat ... lejár az NDA. :)) Ha nem, akkor hallgatok. ;] :P

    A semmi az nem nincs, hanem van. Ha a semmi van, akkor nincs semmi, de ha nincs semmi, akkor valami van, de az nem semmi.

  • Bj Brooklyn

    aktív tag

    Élyfél után már lökheted is az infót a topicba, és azt is hogy mennyire használják ki egyes gémek a Physx-et és, hogy elérhető-ek e az Ageia tulajoknak is :DDD . Szóval MINDENT :DDD

    Ha a Google a barátod, akkor a Wiki a barátnőd :)

  • TTomax

    nagyúr

    Éjfél.... :O

    ★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"

Hozzászólok Aktív témák