Keresés

Hozzászólok Aktív témák

  • 7600GT

    senior tag

    Mi az a Master Chip Design?

    Ha az ember féreggé teszi saját magát, ne csodálkozzon, ha rátaposnak.

  • 7600GT

    senior tag

    Ez mind szép és jó, de mekkorák lennének a gyártási költségek, hogyha csak úgy bepakolunk még néhány slave chipet, tehát kb. mekkora megmérete van egy slave chipnek? Nem lassítja a kommunikációt, hogy a chipek külön vannak? Amúgy elég jónak tűnik nekem ez a technika.

    Ha az ember féreggé teszi saját magát, ne csodálkozzon, ha rátaposnak.

  • 7600GT

    senior tag

    Tulajdonképpen a slave chipekből mit tudnak kispórolni? Amugy ha jól hallottam, akkor egy Rv870 150mm2 körül lesz 960shader egységgel, szóval szerintem a kis magméret kivitelezhető, de az hogy mondjuk 3 ilyet meg egy master-t egymást mellé hegesszenek, nekem kicsit irreálisnak tűnik. Majd a swift-be is ilyet fognak belerakni, vagy az teljesen más káposzta?

    Ha az ember féreggé teszi saját magát, ne csodálkozzon, ha rátaposnak.

  • mad1

    veterán

    Akkor fel ev utan nem nagy szam megdonteni az x2t :DDD
    En meg mar azt hittem hogy megjott az nvidia esze. :B
    Koszi az nfot :R

    https://hardverapro.hu/tag/mad1.html

  • keldorpapa88

    félisten

    Pedig szerintem ennyire hülyék... G80 architektúrát is folytatják, látod... ;]

  • schwartz

    addikt

    Veled nem tudok (akarok) ezen vitakozni. :D Ez van. Inkabb hallgattam volna... :DDD

    [ Szerkesztve ]

    Ride the Lightning

  • Bj Brooklyn

    aktív tag

    Naaaaa Abu valamit :DDD Íz, szín, szag...??? :DDD

    Ha a Google a barátod, akkor a Wiki a barátnőd :)

  • schwartz

    addikt

    A 3dfx-et sem a Glide tette tonkre. Labdaba nem rugott mellette a D3D...
    Csak egy volt a gond, akkoriban nem oda ment az arab olaj... :D

    [ Szerkesztve ]

    Ride the Lightning

  • Firestormhun

    senior tag

    Egyetemeknek, felhasználóknak, garázs projekteseknek, valamint olyan alkalmazásokhoz melyek 100% optimalizációt igényelnek a leggyorsabb futtatás érdekében tökéletes a CUDA. Könnyű programozhatóság bizony sokak számára előnyt jelent.

    OpenCL, jaj de jó, ipari szabvány. Kár, hogy nincsenek hardveres megkötései. Van viszont 70 féle GPU architektúránk ráadásul még CPU-n is kéne fusson rendesen. Írjunk programokat, hajrá. Gyerekcipőben jár ez még nagyon.

    Az NV semmit nem tett fel a CUDA-ra. Arra tesz fel, hogy a lehető leguniverzálisabb termékeket próbálja nyújtani a vásárlóinak szerintem. Kezdő, közepes programozóknak ott a CUDA, profiknak meg OpenCL. Mi ezzel a baj?
    NV amúgyis kijelentette, nem kíván konkurálni OpenCL-el, hanem 100%-ig támogatja azt. Drivert és developer toolkitet már ki is adott hozzá. Többiek? Sehol.

    ...

  • schwartz

    addikt

    Ha igazak a spekcok, a GT300 ugy kuldi majd padlora az RV870-et mint Mike Tyson... :DD Ez a ramaty helyzet?

    Ride the Lightning

  • Gyusz

    őstag

    Minek béta oprendszerre WHQL driver? Mellesleg az NV-nek van is béta 7 drivere ha valaki azzal akar foglalatoskodni (én is általában legújabb bétát használok, és általában nincs gond velük, bár Win 7-et még nem próbáltam), meg nem úgy volt, hogy a Vista driverek is jók lesznek Win 7-hez?

    Khm, no meg schwartz linkje szerint "A G80 is GPGPU-nak készült, de közel sem olyan alkalmas a feladatra, mint az R600. ". Eddig nem azért volt szar az NV, mert mindent alárendelt a GPGPU piacnak, vagy most hogy van ez :F

    [ Szerkesztve ]

  • keldorpapa88

    félisten

    Hát ha ilyen lesz, én nem vagyok annyira biztos abban, hogy az nV még 2 évig itt lesz. :U

    [ Szerkesztve ]

  • keldorpapa88

    félisten

    Hehe, nekem tök úgy rémlik, hogy az XP->Vista váltásnál is ezt játszotta az nV. Látom nem tanultak... :DD

  • Gyusz

    őstag

    Én még mindig nem érzem problémásnak a Win 7 WHQL driver meglétét, ha fontosnak tartják a dolgot, akkor úgyis időben el tudnak készülni vele... Bár mondjuk anno az NV első Vistás driverei nem álltak éppen a helyzet magaslatán, de a Vista is inkább SP1-el lett igazán használható szerintem.

    Ez az egész Havok és Physx játékos szempontból egyelőre nagyon bizonytalannak tűnik. Valahogy a fizika mégsem lett annyira a játékok szerves része, mint várta volna az ember, pedig anno mekkorákat néztünk a Max Payne 2 arrébb rúgható/ledőlő dobozain, meg örültünk, hogy a Half-Life 2-vel jött a Gravity gun. 2004 körül még simán azt mondtam volna, hogy a Havok lesz az egyeduralkodó, ehhez képest jött a Physx, meg használnak saját megoldásokat a fizika modellezésére, plusz az Euphoria is elég meggyőző szerintem a GTA IV-ben.

    [ Szerkesztve ]

  • VinoRosso

    addikt

    A G80 az egyszerű számításokra tervezték, és a bonyolultaknál, valamint a sok ideiglenes adatta dolgozó grafikai számításoknál megfekszik. Ez R600 kvázi a rendszer ellentéte. Ha sok függőség van a kódban, akkor nem egy erőgép, kevés függőséggel már sokkal jobb a helyzet. A bonyolult feladatokat meg imádja.

    Ebben nincs egy hangyányit ellentmondás? Ha valamiben sok függőség van az bonyolult, amiben kevés az egyszerű. Ha gondja van a függőségekkel, akkor nem szeretheti a bonyolult feladatokat. Ez egyébként minden GPUról elmondható kivétel nélkül, mivel mindegyik adatpárhuzamos architektúra, méghozzá masszívan.
    A különbség a G80 és az R600 közt annyi, hogy a G80 durvább szemcsézettségű, TLPhez közelít, míg az R600 ILP inkább, valamint a G80 ütemezője miatt nagyobb fokú párhuzamosságra képes, viszont lassabb az ütemezési költségek miatt. R600 gyors floatban, de kb itt meg is áll a tudomány, és emiatt ha valamelyik inkább GPGPUnak mondható akkor az R600 az, mert tipikusan ezekben a számításokban fordul elő masszív párhuzamosság, ahol az r600-at ki lehet pörgetni. Grafikában a béka segge alatt van, jó architektúra, de arra nem való, hogy n+1 direkt/indirekt fényforrásból lombkoronán átszűrődő, vízben megcsillanó és párában elhalványuló csilli villi sunhaft effekteket számoltassanak vele . De mondjuk mintafelismerésre, keresési / adatreduckiós feladatkora kiváló. A kettő közül az r600 a "butább", méghozzá jóval.

  • Gyusz

    őstag

    Hmm, megnéztem és az Euphoria tényleg nem konkrétan a fizikáért felel, pedig a fél internet tele van erre utaló infókkal. Na mindegy, attól még közel sem olyan egyeduralkodó a Havok, mint vártam volna.

    Windows 7 RC nem május 5-től lesz?

    [ Szerkesztve ]

  • schwartz

    addikt

    Az említett címek (GTA4, Ghostbusters, SW: The Force Unleashed) a Havok motort használják fizikára.

    A Ghostbusters-ben biztos a Havok felelos a fizikaert? Valami mas megoldasrol beszeltek a fejlesztok. (Infernal Engine's Velocity Physics)

    Ride the Lightning

  • biggamer

    veterán

    " Az NV bizony mindent feltett a CUDA-ra, azért vannak most ilyen ramaty helyzetben, mert a platform nem terjedt el. "

    GPU-val kódol videót a Nero szoftvere : [link]
    / egy kis érdekesség :F /

    " A különböző alkalmazások körében egyre nagyobb mennyiségben vannak jelen azok a programok, amelyek az Nvidia CUDA technológiáját támogatják, így a GPU számítási teljesítményére támaszkodva tudják elvégezni az olyan idő- és teljesítményigényes feladatokat, mint például a videó vágás és kódolás, valamint a képszerkesztéssel kapcsolatos munkálatokat. Most egy újabb alkalmazással bővült a kör: a Nero Move it névre keresztelt videó kódoló szoftvere is CUDA támogatást kapott. "

    [ Szerkesztve ]

    Ha az életben minden fontos dolgot szemmel el lehetne intézni, akkor az utcákon csak halottak és terhes nők lennének ... WOT / BF3 / BF4 ... biggamerHUN

  • biggamer

    veterán

    "mert a platform nem terjedt el" <---> "egyre nagyobb mennyiségben vannak jelen"

    [ Szerkesztve ]

    Ha az életben minden fontos dolgot szemmel el lehetne intézni, akkor az utcákon csak halottak és terhes nők lennének ... WOT / BF3 / BF4 ... biggamerHUN

  • biggamer

    veterán

    Én erre csak azt tudom mondani, hogy várd ki a végét.
    Tudod, " lassú víz partot mos ".

    Szép lassan ráébrednek, hogy azért nem annyira elveszett dolog ez az alkalmazás.
    Ki tudja, mi lesz a végén.

    Ha az életben minden fontos dolgot szemmel el lehetne intézni, akkor az utcákon csak halottak és terhes nők lennének ... WOT / BF3 / BF4 ... biggamerHUN

  • TTomax

    nagyúr

    Még jó,hogy a játék és sw fejlesztőket érdekli a CUDA ... erre nagyon jó példa az általad favorizált Stormrise,meg most ez a Nero is... de hozhatnék még egyéb példákat.Azt meg el kellene fognod neked is,hogy a marketing bullshit mindkét gyártótól ömlik hiszen a terméket el kell adni.. a Dx10.1 pontosan ekkora shit ... söt az egész DX egy hatalmas maszlag amit zabálni kell ha tetszik ha nem...

    (#217) Abu85
    Pontosan ezért kell foglakozni a CUDA-val amig nincs OpenCL támogatás...ja de akkor tényleg megint valamiért szemét lesz az NV ha megcsinálja....na mindegy.

    [ Szerkesztve ]

    ★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"

  • biggamer

    veterán

    De van aki nem a játékot nyomja éjjel-nappal.
    Másra is lehet használni a gépet nem csak arra.

    " H.264-es videókat is átkódolhatnak, mindezt a hagyományos, processzorral történő folyamatnál lényegesen gyorsabban.
    A GPU gyorsítással üzemelő kódolás csökkenti a CPU terhelését, emellett ötször gyorsabb, mint a csak CPU-t használó módszer. "

    [ Szerkesztve ]

    Ha az életben minden fontos dolgot szemmel el lehetne intézni, akkor az utcákon csak halottak és terhes nők lennének ... WOT / BF3 / BF4 ... biggamerHUN

  • TTomax

    nagyúr

    Szerinted, ha az NV tud DX10.1-et, akkor használnák a CUDA-t a Stormrise alatt a Z adatok kinyerésére?
    Pont ezért kell a CUDA...mondj más módot a probléma megoldására...
    A DX10.1 akkor is egy maszlag marad,fölég úgy,hogy most veszel egy kártyát azért mert huuu,tudja de fél év múlva itt az egész komplett DX11.Tudom,most jönne az.hogy a DX10.1-el tudó kártyákkal "néhány" ficsörröl kell lemondani...Tulajdonképpen most értük meg,hogy Nativ DX10-es játékok készülnek,szeretném már látni azt az előnyt amiről eddig a marketing maszlag ment,hogy ez nekem milyen szuper.Van egy DX10-vga-m,egy DX10-et tudo vistám,amikkel DX9-ben játszottam...de vegyek DX10.1-es vga-t mert azon jól megy az elsimitás,de már a DX11-es játékokat ecsetelitek...nem értem én ezt... egyre jobban hajlok arra,hogy konzolt kell venni,mert ez egy vicc...

    [ Szerkesztve ]

    ★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"

  • Beowulf_78

    addikt

    "Ha te fejlesztő lennél, akkor neked az lenne az érdeked, hogy ne csak a GeForce tulaj Pisti, hanem a Radeon tulaj Marika is használja a programod. Mi több vegye meg! De ha csak Pisti tudja futtatni, akkor már eleve nem tudsz szert tenni Marika pénzére. Potenciális vásárlóbázist vesztesz aminek egyenes következménye a kevesebb bevétel. Szerinted egy fejlesztőnek ez a célja?"

    Az a baj hogy te mindent egyszerű logikával próbálsuz magyarázni. Holott nagyon sok esetben a számunkra logikus dolgok, csak másod vagy harmadlagosak. Sztem logikus amit mondasz, ezzel nincs is baj...de ha így lenne ahogy levezetted, akkor miért van hogy egyik játék nV optimalizált a másik ATI optimalizált? Hiszen a LOGIKÁNK azt mondja úgy kellene fejleszteni a játékokat hogy mind a 2 VGA gyártó kártyáin jól fusson, hiszen ez hozná a legtöbb bevételt, és a KOMPROMISSZUMOK NÉLKÜLI VGA VÁLASZTÁST.
    Ez a logikus. De mi van helyette? Késélre menő harc hogy a nagy nevű játék fejlesztő cégek melyik VGA-ra optimalizáljanak. Így u.a. a helyzet alakul ki, ami az XBox 360, és a PS3 körül. Van ami csak XBox, van ami csak kizárólagos PS3 név. Pl. aki imádja a Gran Turismo-t az PS3 fog venni. Aki szereti a Halo sorozatot az meg XBox 360-at. Persze van olyan hogy erre is meg arra is. De a húzónevekre nagyon vigyáznak, mint a hímes tojásra.
    PC-nél dettó ez van.
    NEM ÉRDEKE A GYÁRTÓKNAK A KÖZÖS EGYSÉGESÍTETT PLATFORM, mert ezzel nagy kockázatot vállalna mind az ATI mind az NV. Miért? Mert mind a 2 gyártó kártyáin jól futna minden, és kizárólagosan csak a jobb, gyorsabb hardveren múlna 1-1 VGA széria sikere. Ez pedig kétélű fegyver. Mert egy NV által eltalált G300 architektúra azt eredményezné, hogy a kutya se venné az Ati 5xxx szériáját. Persze ez fordítva is igaz.
    Itt jön az amit mondtam, hogy egyik sem fog csődbe menni, mert mindig is meglesznek azok a "húzó nevű" játékok, ami miatt érdemes lehet megvenni egy gyengébb szériájú VGA eresztést, ez pedig kizárja az egységesített független API-t, ill. a mindkét rendszerre történő optimalizálást.
    Szóval...nem biztos hogy a logikus okfejtésed lesz a nyerő. ;)

    Szakmai kérdésekkel ne pü-ben keress....használd a megfelelő topikot! A 4890 CF tesztet amit elkezdtem, nem fogom befejezni. Majd megcsinálja más. A meglévő nVidia-s cikkeimet pedig törölni fogom.

  • keldorpapa88

    félisten

    Nincs... nekem már jön le a 7100 build, ami a végleges RC. Május 5.-én kerűl ki az MS oldalára, nem mindegy! :DD

  • Beowulf_78

    addikt

    "Valóban bullshit a DX10.1 - [link] Csak átlag 20-25% plusz sebesség van benne."

    Csak egyet felejtesz el. Ezek közül egyik se lesz húzónév. Csak abban az esetben nyerne teret az ATi a DX11-ig, ha minden műfajban lenne legalább egy DX10.1 húzóneve.
    Mit mondjak...Stormrise bukás, Battleforge szintén nem lesz nagy durr bevétel szempontjából. A HawX talán az egyetlen a három közül ami ér is valamit, de nem lesz az év játéka. Elég egysíkú. Ezzel itt ki is fújt az AMD-ATI reklámfilmjének az elemzése. Majd meglátjuk mi lesz a Starcraft 2, Mafia 2, Alan Wake, Diablo 3...mert ezek inkább a húzónevek 2009-es évben. :U Mást nem tud csinálni az Nv DX11-ig mint minnél több húzónevet megtartani, és újakat megvenni. Így lazán pariban lenne még 2 év után is a hiper-szuper DX10.1 ATI kártyákkal egészen DX11-ig. Ez jó egy nV-t választó felhasználónak? Jó! Lassítja a fejlődést? Persze. De hová rohanjanak? :U Nem fogok a kardomba dőlni ha DX11-ig marad ez a szintű grafika, és gyorsaság. Nekem megfelel.
    Az pedig a másik hogy először azzal érveltetek hogy szebb a DX10.1. Majd amikor ez megdőlt, mert egymás mellett levő képeken bekarikázva a különbséget is közel kellett hajolnom hogy lássam a különbséget. :B Ezek után jött hogy nem a szépség hanem a gyorsaság, mert AA mennyivel gyorsabb DX10.1 alatt. Lehet. Ezt nem vonom kétségbe. De hol van ennek létjogosultsága? Már 1680x1050 is kicsik a képpontok, nem hogy 1920x1200-as felbontásnál, ami folyamatosan terjedőben van. Ergo tök felesleges az AA. 1440 ill. 1280-as felbontásoknál volt értelme, ahol a recézettség valójában rombolta a játékélményt. De az AA hiánya 1680 felett már régóta nem befolyásolja a játékélményt.
    Tehát mi értelme van a DX10.1-nek ha egyik aspektusból sincs létjogosultsága FELHASZNÁLÓI szemmel. :U
    Még mindig azt érzem, hogy az ATI erölködik, aminek általában nyögés a vége, az NV meg megpróbálja megőrizni a hidegvérét, és a kivárásra játszik.

    Szakmai kérdésekkel ne pü-ben keress....használd a megfelelő topikot! A 4890 CF tesztet amit elkezdtem, nem fogom befejezni. Majd megcsinálja más. A meglévő nVidia-s cikkeimet pedig törölni fogom.

  • Beowulf_78

    addikt

    Na! :Y Haladunk! ;] :P Akkor már ott tartunk, hogy hagyjuk a DX10.1-et sebesség és képminőség szempontból, és vessük be az utsó fegyvert amivel érvelni lehet a zöldek ellen..az ár / teljesítmény arányt, amivel az NV nem tud versenyezni. :B ;] Egyértelmű hogy a legújabb kártya ami kapható is széles körben az a 4890, evidens hogy viszik, tény hogy jelenleg ez a sláger kártya. GTX 275 is van elvétve, de tény hogy drágább, még ha nem is sokkal.
    GTX 275-ből azért ennek ellenére sokat fognak eladni, az biztos. ;) Nem hinném hogy ennyire kiélezetten versenyezni akarna az NV az árakban. Mindig is drágább volt. Amióta az NV-ATI harc létezik. Valószínű ez így is fog maradni. De ha ez akkora gond lenne már rég csődbe mentek volna, és attól függetlenül hogy drágább, az elmúlt években többször volt az Ati padlón mint ahányszor az NV. Nem véletlenül lett ugye a nevük AMD-ATI. :U :P
    Nem azért mert fullon voltak lóvéval a bevételekből. ;]

    Szakmai kérdésekkel ne pü-ben keress....használd a megfelelő topikot! A 4890 CF tesztet amit elkezdtem, nem fogom befejezni. Majd megcsinálja más. A meglévő nVidia-s cikkeimet pedig törölni fogom.

  • VinoRosso

    addikt

    Miért lenne feltétlenül bonyolult az amiben sok függőség van?

    Próübálj meg rá sw-es ütemezőt írni, aztán meglátod :D ( nem egyszerű alacsony költségű algoritmust kreálni ilyenekre)

    A folding az meg csak 1 alkalmazás, másik 10ben meg pörög mint a búgócsiga. Mint említettem minden GPU masszívan párhuzamos számításokban tud villogni, ahol nagy mennyiségű független adaton kell ugyanazt az egyszerű műveletet végrehajtani. Olyan meg hogy nincs függőség olyan nincs( utasítás vagy vezérlés függőség mind1.. ) :N A függőség nem architektúra fícsör, hanem egy probléma sajátossága, az hogy ráhúzod a legjobb algoritmust, és ebben is vannak fix lépések, amiknek meg kell előzniük a másikat. Ilyenkor nem lehet párhuzamosítani egyetalán, tehetsz alá akármilyen vasat, hacsak nem képes időutazásra, nem fog javítani a telesítményen. Ameddig kauzalítás van, addig pedig lesz mindig ilyen, és minden kódban van ilyen. Az ütemezővel annyiban lehet javítani a helyzeten, hogy ha nincs akkora fokú párhuzamosság egy kódban, hogy kihasználja a telejes számítási kapacitást, akkor a maradék lazsáló sp-oknak lehessen melót osztogatni.Geometry shadert leginkább + sp-kkel lehet gyorsítani, ezért jobbak benne a radeonok, 300 körüli sp számmal már r600 szinten lenne a g80 is. Dx10.1 nem azért nem támogatja véleményem szerint az NV mert mindenképpen a CUDA-val akarja kitúrni a DX-et, hanem egyszerűen nem éri meg nekik. Sima anyagi okai vannak, előre teveztek egy olyan architektúrát 3-4 évvel ezelőtt, amivel az akkori és a közeljövő alkalmazásai széles körben jó teljesítményre képesek voltak, és egy csomó óvét bezsebeltek vele. Ekkor sehol sem volt még a dx10 sem, nem hogy a dx10.1. Idén kezd kijönni a hátránya ennek, de nyilván 3-4 évig nem a pénzeszsákokon ültek, hanem közben dolgoztak egy teljesen új architektúrán. Ennyi idő pedig elég sok probléma felfedésére és megoldására elég . G80ból ezalatt kipréselték amit lehet, ősszel meg már jön egy dx11-es architektúra, és amit felhozol hátrányként a G80 ellen az szerintem jó eséllyel el fog hervadni mint a rózsaszál. Nem értem mindek fikázod már jó előre azt amiről még fogalmad sincs( illetve tudom, ez a fanatizmus :D ) , és hogy honnét veszed, hogy megoldhatatlan feladat az nvidiának egy zsír dx11-es chip gyártása. Ha pedig dx11ben jó lesz, nagy valószínűséggel ugyanolyan jó lesz dx10.1ben is, de hogy milyen dx10.1ben az szerintem addigra már senkit nem fog érdekelni.

  • VinoRosso

    addikt

    Nem grafikára lesz, ahogy a G80 és a GT200 sem arra van

    Fura hogy ezt mondod a a G80 vs R600 kapcsán. Nem azért de Te teszteket néztél? ( bocs de úgy érzem ezek után nekem is kell modnanom valami cifrát :D ) Gyakorlatilag az atinak rv770 proig nem volt olyan GPU-ja, ami megszorongatta volna a 8800GTX-et. Így akárhogyis nézzük, egy 1,5-2 évig egyeduralkodó chipről mondtad azt, hogy nem jó grafikára. Kiváncsi leszek, hogy lesz e valaha még ilyesmire példa( én nem emlékszem, hogy ezelőtt lett volna ) Kérdés az is, hogy akkor a többi kártya mire való? Mondjuk egy rv670XT pl, ami sokáig még a G96ot se tudta kiütni a nyeregből. :U Egyedül a GT200-al voltak poblémák, leginkább fogyasztás és ár miatt, nem pedig a teljesítménye szempontjából, mivel még mindig ez a legerősebb GPU.

    [ Szerkesztve ]

  • VinoRosso

    addikt

    Nézd én abban nem viztázom veled, hogy hogy dx10.1 alatt a radeonok jobban mennek mert ez tény. Sőt még sima dx10 alatt is ha kizárólag a GS fázist nézzük(bár ugye a dx10 igazából nem a GSről szól) Én csak annyit mondtam, hogy ha gyártó vagy úgy kell gondolkodnod hogy minél több hasznot zsebelj be. Az NVnek meg így volt a legnagyobb haszna, hogy megcsinált egy 2006ban korszerűnek számító architektúrát, amivel 2 évig uralta a piacot, és amig lehetett húzta. Addig húzta, hogy nem volt szüksége arra, hogy egy dx10.1es magot gyártson, ha nagyon muszály lett volna meglépi, de felesleges, szerintem már kb 1-1.5 éve eldönthették, hogy inkább dx11re gyúrnak, addig meg kihúzzák a meglévő architektúrával. És én ezt teljesen logikusnak látom, ha én is csupán az anyagiakat tartanám szemlőtt, én sem csináltam volna másképp, mert ez vlószínűleg optimum, jó dx10.1es chiphez át kellett volna szabni az egész architektúrát, és ezt fél-egy éves huzavonáért nem érdemes. Inkább megvették a aegia-t és így kb ugyanúgy konkurrál6nak a dx10.1-el, ez bőven elég volt ahhoz, hogy a dx10.1 ne terjedjen el. Igaz én személy szerint annak örültem volna a legjobban, ha piacra dobnak egy dx10.1es GPU-t, és akkor nem lenne miről beszélni. Dehát ez van, szivem szerint se win-t, se dx10-et nem használnék, de sajna nincs választás, mivel ez a mainstrean.

  • tlac

    nagyúr

    ok, grafikán kívül még kell használni pár library-t
    de az OpenCL-el, Compute Shader-rel, ugyanúgy meg marad a probléma

  • VinoRosso

    addikt

    Igen ezeket már mind ismertem, tele van vele a padlás, hogy miért nem olyan jó dx10.1 alatt a radeon ezekben a játékokban. Igazából magyarázatnak elfogadható, de a tényeken nem változtat. Van 2 játék amiben jóval gyorsabb az rv670< radeon a konkurrens geforcenál a gs miatt, és a többiben meg ugyanolyan fps-t hoz a geforce, vagy jobbat dx10. alatt. Ez nem azt jelenti, hogy nincs előnye a dx10.nek a dx10el szemben, ez a száraz tény csupán. Azt hiszem az is tényként kezelhető, hogy legalább ennyi előny( ha nem több ) is van a pshx-es játékokkal az nv-nek. Lehet, hogy a physx el fog halni ( bár ezt még nem lehet 100%osan kijelenteni ), de abban biztosak lehetünk szerintem mindannyian, hogy előbb fog elsorvadni a radeonok dx10.1 miatti előnye Physxes játékok idén is jönnek, meg jövőre is, viszont az ati előnye csak a GT300 fog tartani a dx10.1el, ami lehet h ősszel már meg is jelenik, ergo van 6 hónapja hátra. kiváncsi leszek, majd jön e physxes dx11-es játék, mert akkor könnyen előfordulhat, hogy visszanyal a fagyi az atinak( pl ha mondjuk a crysis 2 lesz az ).Mindenesetre én a Metro 2033at nagyon várom, mert a GSCből kivált fejlesztőkre épülő csapat csinálta( bár emiatt nem vagoyk benne biztos, hogy ki fog jönni idén ;] ), a Shadow of Chernobyl meg a kedvenc játékom volt. BTW ez dx9es gamma lesz, ennek ellenére elég szépnek igérkezik, legalábbis az előzetes videók és screenshotok alapján. Ha úgy fog futni legalább, mint a stalker anno, akkor szerintem hardvergondjai sem lesznek, mivel azóta a vasak eleget fejlődtek.

  • tlac

    nagyúr

    Ez nem sok munka, a Tessellation SDK-ből könnyű DX11 kompatibilis kódot csinálni.

    a másik irányból milyen?
    a dx11-es tesszelátor vmi tákolással fog menni dx10.1-en?

  • VinoRosso

    addikt

    Egy DX11-es játék szebben néz majd ki és gyorsabban fog futni a DX10.1-es Radeonon, mint a DX10-es GeForce-on

    naná, mivel a dx10es geforcok nem támogatnak dx11-et. Ez kb olyan mélyenszántó gondolat, mintha azt mondanád hogy a sas gyorsabban repül a struccnál. De a GT300 mióta dx10es? :U

    Ha lehet úgy fogalmazni jelenleg az NVIDIA játékokat vesz ..

    Nem jelenleg, ez mindig is így volt. De nem csak az nvidianál van ez így. Elég csak a doom3/HL esetére visszagondolni. Lobbi mindig is volt/van/lesz, nincs ezzel semmi gond, amig van lehetősége választani a fejlesztőnek és a felheasználónak. Majd amikor nem lesz, hanem azt mondják hogy ezt kell használnod, mert nincs más, akkor lesznek gondok(illetve ott vannak)...

    A Crytek sosem fog Physx-et használni. Maga a Boss mondta

    Yerliék ilyet szóltak volna? mikor? Melyikük mondta? Furcsa ezt így hallani, mert szerintem elég szoros kapcsoaltban lehetnek az nvidiával ahhoz, hogy legalább elgondolkodjanak a phsyx használatán. Pláne most, hogy az erőforrásaik nagy részét
    konzolos fejelsztésre fogják fordítani.Alapjában véve nincs semmi gond a cry2es fizikával, viszont állítólag elég "kusza" a kód, és sokba kerülne rendbettenni. hogy újrafelhasználható legyen, vagy nagyobb mértékű változtatást hajtsanak rajta végre. Nem lepne meg, ha elkezdenék használni a phsyxet, mert lehet, hogy anyagilag jobban kijönnek vele, mint egy reakftorált felturbózott cry2es fizikával. Arról nem is beszélve, hogy mennyit gyorsulna tőle az engine. Azt meg gondolhatod, hogy ha a cry3 physxel fog kijnni, az mennyire megéri az nvidiának. Bizony nem csodálkoznék azon, ha már felhozták volna nekik a témát a zöldek.

    Miért támogasson egy fejlesztő egy olyan technikát, ami a többségnek nem áll rendelkezésre.

    Csak hipotetikusan:

    Az nvidia ősszel piacra dob egy dx11es VGA-t, ami legalább ugyanolyan jó lesz árban és teljesítményben, mint a konkurrens temék. Ezesetben nem beszélhetünk sem a dx10.1 támogatás hiányáról, sem arról, hogy kevsé nvidia kari van a usereknél. Erre értettem azt, hogy visszanyal a fagyi, mert ha az nv lobbinak sierül bezsebelnie egy két neves játékot phsyx támogatással, akkor az ati lesz abban a helyzetben, amiben most az nvidia van, mert userek tömkelege fogja venni az nv karikat azért, hogy hiperszuper robbanásokat lásson, szétpüfölhesse a berendezést, ementáli sajtot csináljon a falakból, roncsderbit játszon a kedvenc hummerével stb...lefogadom hogy akkor is lesznek majd olyanok, akik azt mondják hogy az a csúnya ati nem támogatja a physxet, pedig az milyen hiper szuper jó cucc, de az ilyenektől áll az égnek a hajam. Ez a verseny, és ez így van rendjén, az ati a büdös életbe nem fog támogatni semmit, ami az nvidiától jön és vica versa. Enélkül nem lenne fejlődés, hanem szépen megszületnének a paktumok a hátunk mögött. Így viszont mindegyik gyártó fejlesztésre van kényszerítve,a mi nekünk csak jó. Na most...játékokat feljeszteni nem pár hónap, hanem egy hosszú fáradságos folymat. Aki pénz szerez egy ilyenre, és engeriát áldoz rá, az igyekszik minél tovább elnyújtani a termék életciklusában a gyümölcsöző szakaszt. Vagyis biztosra vehető, ha most jön egy csomó dx9es játék, és éppen csak szálingóznak a dx10.1re épülők, és ősztől már elérhető lesz a teljesen dx11, nem lesz túl sok játék, ami kimondottan dx10.1re alapoz. Ergo arányaiban sok dx9es játék volt/van, kevés dx10/dx10.1, és sok dx11es fog készülni. Az nv nem csinál mást, csak követi ezt a hosszú távú trendet, ezért hosszú távú stratégiát alkalmaz, ezért csinál komplex chipet, ezért akar x86os liszenszet, mert nem félévekben gondolkodik. Az atinak meg egyszerűen nem volt más esélye, csak az, hogy rövid távú stratégiát kövessen, mert szorongatott helyzetben volt a g80 miatt, és az amdtől sem jött úgy a jatt, mert K9-et meg a c2d szorongatta. Akkor is egy csomóan temették az amd-t meg az atit is, érdekes módon nem mentek csődbe, pedig közel sem voltak olyan tőkeerősek mint az nvidia. Ezért kevés esélyét látom annak, hogy az nvidia kiszálljon a grafikából. Ha ki akarnának szállni, akkor nem ölnének dollármillliókat egy olyan architektúra elkészítésébe, ami elve nem lehet sikeres, hanem szépen felállnának, és azt mondanák, hogy mostantól kezdve ezt meg ezt fogjuk csinálni, mert nem fogunk labdába rúgni itt és itt, ahogyan tette pl az abit. Ráadásul ők elég jó lapokat csináltak, csak nem érte meg nekik a gyártás, és simán relaizálódott bennük, hogy ha folytatják nem sok babér terem nekik. Tartom annyira az nvidiát, hogy képesek efféle ésszerű döntéseket hozni, és mivl nem hallani semmiféle kivonulásról, ezért puszta rosszindulatnak tételezem fel az efféle találgatásokat azoktól, akik valamiért fújnak az nvidiára, realitás alapja szvsz nincsen. Ha majd felszáll a vörös köd, és kitisztulnak a gondolataid, akkor te is meg fogod érteni ezt, mert nem egy bonyolult dolog, másrészt meg nem vagy egy idóta, csak elfogult.

    Nem tudok olyan technológiáról, amit nem végzett volna ki egy független platformra épülő.

    Mint tudjuk a directx MS független, multiplatform szoftver, ezért kell minden egyes új dxnél is új windowst feltenni. Persze...

  • tlac

    nagyúr

    A DX11 tesszellátor egyébként maximum 64x-es tesszellálásra képes, míg a Xenos 15x-ös.

    van ennek jelentősége, hogy így kiemelted ezt a különbséget?
    tehát pl. a 15x-ösön jól láthatóan "szögletesebbek" lesznek a tárgyak?

  • schwartz

    addikt

    mert ezek nélkül nincs az az ember, aki drágábban vesz GeForce-ot a gyorsabb Radeon mellett

    Varjuk meg mar azokat a gyorsabb Radeonokat... :D A teljesitmenyt nezve, az utobbi nyolc evben csak egyszer sikerult igazan elonyt kovacsolni az ATI-nek. (az R300-al)

    Ride the Lightning

  • Sweet Lou 6

    addikt

    Ott van még a pasziánsz is :D

    Ha pesszimistán nézek az NV-ra, még akkor is minimum kikell bírnia pár évig (van ott tartalék, amd se ment csődbe...)

    Ha két lehetőség közt nem tudsz dönteni, csinálj egy harmadikat.

  • ashot

    tag

    En csak azt latom, hogy a jelenbol kiindulva vannak jatekok amik ATIn futnak jobban, vannak amik Nvidian.
    Es ehez csak annyit tennek hozza hogy amik Nvidian futnak jobban, tehat mondjuk 50-60fps el azok ATIn 40fps el futnak, amik ATIn futnak jobban, tehat 200fps el az nvidian csak 170fpsel fut:)

    Vagy nem igy van?

    Marton

    [ Szerkesztve ]

  • VinoRosso

    addikt

    Csak pár dologra reagálok mert nincs túl sok időm.

    Tévedés a gyártók nem vesznek játékokat.

    Mi a véleményed erről?

    ATI and Nvidia are now willing to go even further to ensure popular games are optimized for their respective chip architectures. For example, Nvidia sponsored Doom 3, and ATI spent a reported $6m[citation needed] on Half Life 2.When Doom 3 was released, unsurprisingly Nvidia held a large performance lead. ATI analyzed the code, and found shader calculations were being performed manually through a look up table, to compensate for the relatively poor performance of the FX series in this respect. Through application recognition, on the x800 card ATI reportedly found a 30% speed gain[citation needed], just by moving shader calculations to hardware. To this extent, the question of who has the best graphics architecture, is becoming ever harder to answer, as with the increasing complexity of GPUs, performance becomes ever more optimization specific.

    A Crytek a saját érdekét nézi, az NV-t kb. leszarja

    Én úgy tudom, h napi szintű kapcsolatban vannak.

    És a DX az melyik grafikus processzorgyártóhoz kapcsolható? Azt az MS fejlesztette, ahogy leírod, aki nem gyárt grafikus processzort ... ergo a cég totálisan gyártófüggetlen (bár durván AMD puszipajtás, de ezt most hagyjuk ) a PC-s játékpiac életben tartása a célja.

    Ettől még nem lesz plattformfüggetlen.

    Az informatikában platform alatt olyan hardver- és/vagy a szoftverkörnyezetet értünk, amely meghatározza, hogy az adott számítógépen milyen egyéb programok használhatók

    A szoftverkörnyezet legalább olyan fontossággal szerepel a definícióban, mint a hardverkörnyezet. DE! a direcx szoftver, nem hardver. Ezért teljesen irreleváns arra hivatkozni, hogy platformfüggetlen azért, mert széleskörű a hardvertámogatása. DX-es hardvert lehet emulálni szoftveresen, és ha van elég processzor, akkor még normális teljesítménnyel is futnak a dx-es alkalmazások. Erre készül pl az intel, és a tualatin pedig nem kifejezetten dx kombatiblis. Tehát a hardvertől egyetalán nem függ, hogy használható e a dx vagy se. Viszont szoftverkörnyezettől nagyon is függ, mert kompatibilis Wint nem fogsz tudni emulálni sehogyse, ezért nem lehet Xpre dx10, Vistára dx11. És attól sem lesz plattformfüggetlen a dx, ha 20x leírod ugyanazt. Lehet hogy valakibe bele tudod sulykolni, de ez ettől még ugyanolyan hazugság marad. Amúgy teli van hasonló technológiákkal az IT, és még azt sem mondhatom, hogy csak körül kéne nézned, mert a dx is az orrod előtt volt, meg a pár hsz-el korábban említett(!!!) .NET is szintén ilyen, ami a Java MS megfelelője. Szóval itt már kapásból volt 2 dolog, OGL + Java vs DX + .NET ami cáfolja az állításod. Érdekes egyébként, hogy pont a MS az, aki a kezdetektől fogva arra épít, hogy ellop egy ( eseteknént független ) technológiát, aztán mintha ő találta volna fel a spanyol viaszt úgy promótálja, és utána próbálja kiszorítani vele a piacról az eredeti konkurrensét, amiről koppintott( lásd CP/M vs DOS, OGL vs DX, Java vs .NET ) Ennél nagyobb bakot nem is lehetne lőni, mint azt állítani, hogy a MS valaha független terméket gyártott, vagy gyártani fog. A nyakamat merném rátenni, ha belefognának a vga gyártásba, csak az általuk készített vga-n futnának el a játékok win alatt.

  • schwartz

    addikt

    Mondj egy olyan rendszert a piacon, ami valamelyik gyártóhoz kapcsolódik, és komoly mértékben elterjedt a fejlesztők körében. :) Akár évekre is visszamehetünk. ;)

    A Glide.

    Ride the Lightning

  • Bj Brooklyn

    aktív tag

    Élyfél után már lökheted is az infót a topicba, és azt is hogy mennyire használják ki egyes gémek a Physx-et és, hogy elérhető-ek e az Ageia tulajoknak is :DDD . Szóval MINDENT :DDD

    Ha a Google a barátod, akkor a Wiki a barátnőd :)

  • schwartz

    addikt

    És hol a glide? Amint jött a DX kihalt. A 3dfx abba halt bele, hogy nem volt képes felfogni, a glide vesztét.

    Menjunk vissza egy par evet...

    1998: A 3dfx a Voodood2-vel mindent lesopor a piacrol. A Glide nyeregben. Nemsokkal a V2 utan dobja piacra az NV a Riva TNT-t. Egyetlen elonye, hogy 2D/3D megoldas (de igy mar kaposabb az OEM piacon mint a ket kartyas megoldasok) Ugyanebben az evben a 3dfx ugy dont, sajat kezbe veszi a kartyagyartast es felvasarolja az STB-t, gyarto uzemevel egyutt. Az NV tovabbra is csak gyartokapacitast berel.
    1999-ben jon a TNT2 (meg minden variacioja) es ismet tarolnak az OEM piacon. A Voodoo3 rá a valasz csak sajnos teljesitmenyben mar nincs akkora difi mint az azelotti generacioknal. Utolso negyedevben jon a Geforce256, elony mar az NV-nel. Novemberben jelentik be a VSA100-at...
    2000 tavaszan az NV beviszi a kegyelemdofest a GeForce2 GTS-el. (teljesitmenyre merten). Csak par honapra ra jon a Voodoo4/5 amit az NV kivegez a Geforce2 Ultraval. (kozben degeszre keresi magat az MX-en)
    Az STB felvasarlasa ota, reszben a fenntartasi koltsegek miatt, a 3dfx gyakorlatilag veszteseges.
    Naessakkor 2000 novembereben jon a DirectX8... :) Ekkor mar a 3dfx labdaba nem rug...Kozlik, hogy toroltek a tervekbol a Voodoo5-6000-et (mar reg a piacon kellett volna legyen) eladjak a mexikoi gyarat majd teljes atszervezes... aminek a vege, hogy 2000 decembereben odadobjak a ceget eszement 56 millio dolcsiert... (mindezt ugy, hogy juliusban a GigaPixelre-re 186 millio $-t szortak el :D )

    Most kerdem en, hogy jon ide a Glide? :D

    [ Szerkesztve ]

    Ride the Lightning

  • Gyusz

    őstag

    Kb. ahogy gondoltam, semmi érdekes cím nincs közötte. Talán a Terminator Salvation, de a GRIN a Wanted esetében is csak összedobott valami játékot gyorsan, szerintem ezzel sem lesz másképp (sőt, a Wanted és a Terminator helyenként eléggé hasonlít egymásra, biztos nem véletlenül).
    A Metro 2033 is érdekes lehetne a volt GSC fejlesztők miatt, de egyrészt nemigen hallani a projektről, másrészt az eddig Stalker játékokat alapul véve tutira kell majd egy csomó patch, mire játszható lesz, no meg a megjelenés ideje is csúszni fog szerintem.

  • Beowulf_78

    addikt

    Abu...én próbáltam a Cryostasis-t, igaz a virágbolti verziót, amikor még kijött az első nem orosz verzió. Angol volt a menü és a nyelv is, úgy rémlik... botrány szarul ment GTX 295-ön. :U 1920x1200 mindent max-ra húzva, max. AA-val diavetítés volt... :F :( Lehet azért mert ez még valami gányolt verzió volt? Kizártnak tartom hogy így menjen a megjelent verzióval.. :U Vagy pedig ha így megy akkor nem kicsit kúrták el. :( Mert egyértelmű hogy az AA miatt csinálja a diavetítést. Bár akkor sincsenek hiper-szuper fps értékeim ha leveszem az AA-t. Arra is gondoltam lehet hogy nem ment az SLI... :F

    Szakmai kérdésekkel ne pü-ben keress....használd a megfelelő topikot! A 4890 CF tesztet amit elkezdtem, nem fogom befejezni. Majd megcsinálja más. A meglévő nVidia-s cikkeimet pedig törölni fogom.

  • Beowulf_78

    addikt

    Nem vagyok biztos hogy ment az SLI...lehet megnézem SLI indikátorral... :U Mert ha megy, akkor egy nagy fos az optimalizáltsága. Gondolom ATI tulajoknál még gázabb. :F
    Egyébként úgy rémlik hogy nem ment az SLI, mert olyan eredményeket kaptam, mint az 1 kártyás G200 rendszerekkel. Szóval lehet hogy nem ment, ami nem biztos hogy a játékban keresendő hiba, elképzelhető hogy a driver nem volt még az igazi. Akkor még nem volt 182.50 WHQL az tudom. :U

    Szakmai kérdésekkel ne pü-ben keress....használd a megfelelő topikot! A 4890 CF tesztet amit elkezdtem, nem fogom befejezni. Majd megcsinálja más. A meglévő nVidia-s cikkeimet pedig törölni fogom.

  • schwartz

    addikt

    A rossz management nem az API hibaja...
    2001-ig minden valamire valo jatek Glide vagy OpenGL tamogatassal is jott. Mondj egy D3D only cimet...

    Ride the Lightning

  • schwartz

    addikt

    Nem mondtam, hogy az API hibás, a 3dfx volt a hülye, hogy elhitte, hogy a Glide a gyártófüggetlen API-kkal labdába rúghat.

    Miert ne? Ha megmarad a teljesitmenybeli elony mindvegig tarol a Glide. Az API-nek semmi befolyasa nem volt a 3dfx anyagi csodjehez. (tobb helyen pedig igy adtad elo a ceg bukasat..)

    [ Szerkesztve ]

    Ride the Lightning

  • schwartz

    addikt

    A teljesítménybeli elsőséget azzal vesztette el, hogy nem szólt bele a DX fejlesztésébe ... hagyta, hogy az NV és a többiek a saját megoldásaikra formálják a rendszert.

    Hogy lehet egy hardware T&L egyseget D3D tamogatassal kompenzalni? Vagy gyartastechnologiai elonyt? (kisebb csikszelesseg, magasabb orajel, gyorsabb memoriak (DDR vs. SDR) stb.)

    Ride the Lightning

  • rocket

    nagyúr

    A Sega is csatlakozott, koran kezdted temetni a PhysX-et, ugytunik megint bedaraljak az AMD-t szoftver support szinten, hiaba csak az NV tamogatja a PhysX-et, tobb studiot talalnak mint az AMD a szabvany API tamogatasara, igaz a mondas a penz beszel, a kutya ugat ;)

    Elvesztette akkor a Sega-t is az AMD, igy az eladasi rekordokat dontogeto Stormrise masodik resze mar PhysX tamogatassal johet majd ;]

    [ Szerkesztve ]

    "A lower resolution generally means that there can be more quality per pixel."

Hozzászólok Aktív témák