Új hozzászólás Aktív témák

  • schwartz

    addikt

    válasz Gyusz #199 üzenetére

    Lattad mit tud az Infernal engine? Az allam is leesett a videokat nezve...

    If he dies, he dies.

  • Gyusz

    őstag

    válasz keIdor #200 üzenetére

    Igen, az is Euphoria, bár én azt hallottam, hogy maga a játék kicsit bugosra sikerült.

    (#201) schwartz

    Jónak tűnik ez a Ghostbusters, szerintem hülyeség volt az Activision Blizzardnak elengednie a projektet, de hát ők tudják.

    [ Szerkesztve ]

  • biggamer

    veterán

    Nvidia GT300 információk : [link]

    [ Szerkesztve ]

    Ha az életben minden fontos dolgot szemmel el lehetne intézni, akkor az utcákon csak halottak és terhes nők lennének ... WOT / BF3 / BF4 ... biggamerHUN

  • VinoRosso

    veterán

    válasz Abu85 #196 üzenetére

    A G80 az egyszerű számításokra tervezték, és a bonyolultaknál, valamint a sok ideiglenes adatta dolgozó grafikai számításoknál megfekszik. Ez R600 kvázi a rendszer ellentéte. Ha sok függőség van a kódban, akkor nem egy erőgép, kevés függőséggel már sokkal jobb a helyzet. A bonyolult feladatokat meg imádja.

    Ebben nincs egy hangyányit ellentmondás? Ha valamiben sok függőség van az bonyolult, amiben kevés az egyszerű. Ha gondja van a függőségekkel, akkor nem szeretheti a bonyolult feladatokat. Ez egyébként minden GPUról elmondható kivétel nélkül, mivel mindegyik adatpárhuzamos architektúra, méghozzá masszívan.
    A különbség a G80 és az R600 közt annyi, hogy a G80 durvább szemcsézettségű, TLPhez közelít, míg az R600 ILP inkább, valamint a G80 ütemezője miatt nagyobb fokú párhuzamosságra képes, viszont lassabb az ütemezési költségek miatt. R600 gyors floatban, de kb itt meg is áll a tudomány, és emiatt ha valamelyik inkább GPGPUnak mondható akkor az R600 az, mert tipikusan ezekben a számításokban fordul elő masszív párhuzamosság, ahol az r600-at ki lehet pörgetni. Grafikában a béka segge alatt van, jó architektúra, de arra nem való, hogy n+1 direkt/indirekt fényforrásból lombkoronán átszűrődő, vízben megcsillanó és párában elhalványuló csilli villi sunhaft effekteket számoltassanak vele . De mondjuk mintafelismerésre, keresési / adatreduckiós feladatkora kiváló. A kettő közül az r600 a "butább", méghozzá jóval.

  • Abu85

    HÁZIGAZDA

    Az Euphoria az nem fizikai motor. Az a rendszer a karakterek élethű mozgásáért felel.
    Az említett címek (GTA4, Ghostbusters, SW: The Force Unleashed) a Havok motort használják fizikára.

    Gyusz: Ha jól tudom, akkor a Win 7 következő verziója RC, azaz már az NV lekéste az integrálást. Nem katasztrófa a dolog, de mindenképp negatívum az OEM gyártók körében. Emellett ugye semelyik NV-s gép nem kaphat Win 7 prémium matricát (DX10.1 nuku miatt). A "hülye azért nem vagyok boltok" erre hajtanak ... baromság a matrica, de kétségtelen, hogy vevőcsalogató.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz VinoRosso #204 üzenetére

    Miért lenne feltétlenül bonyolult az amiben sok függőség van? Ha az egyszerű utasítások függnek folyamatosan egymástól, akkor már rossz a helyzet az R600 esetében. Ezért ilyen gyenge a chip Folding teljesítménye. Erre mondta a Folding egyik programozója, hogy ezen nem lehet javítani, mert az R600-at az AMD a DX10-re tervezte, azaz a legjobb chipet akarta a grafikai számításokra. Ha a rendszer csak olyan utasításokat kap amik függnek egymástól, akkor a shader processzorok 80%-a pihen, mert egyszerűen nem tud a lehetséges 1+1+1+1+1 co-issue módban működni.
    A G80-nál olyan, hogy függőség nincs, mert ez az architektúra stream rendszer. Komponens folyamokon dolgozik, azaz az utasításokat az egymás után következő komponenseken végzi el. Gyakorlatilag a G80 mindig 100%-os kihasználtságot garantál. Ami nagyszerű a programkódnak. A probléma az, hogy a belső cache rendszer irgalmatlanul gyengén bánik az ideiglenes adatokkal. A stream processzorok regisztereinek mérete is kevés. Az ütemező elemzi a feladatokat, és ha túl bonyolult a párhuzamos végrehajtásra, akkor a 8 utas Streaming shader processzorból annyi utat lekapcsol, ahány szükséges a működéshez. Ez persze azt is magával vonhatja, hogy egy ilyen blokkban a 8 stream egységből csak egy fog működni, és az felhasználja a többi egység regiszterét. Előfordulhat persze az is, hogy még így is kevés lesz a regiszterterület, így a hely hiányában az adatok a TPC cache-be lesznek kiírva. Gondolom nem kell ecsetelni, hogy ez mekkora probléma a sebességre nézve. A rendszer aktív processzorai ilyenkor kvázi 10-15 órajelenként dolgoznak (most nem tom pontosan mekkora a TPC cache késleltetése). A G200-nál például a stream processzorok regiszterméretét megduplázták és a belső gyorstárak összmérete is a hatszorosára nőt. Ez nagyon látszik a DX10-es példaprogramokban. Főleg a Geometry Shadert, vagy Cube Map tömböt használó alkalmazások esetén ... utóbbi esetében szó szerint megfekszenek a GeForce-ok, még a GT200 is az R600 alatt van, túl bonyolult nekik a feladat. Persze a GT200 még így is tízszer gyorsabba a G80-nál, csak az R600-hoz még ez is kevés.

    Az NV-nek ezért lenne fontos legyűrni a DX-et, mert a CUDA-ban jó eséllyel nem használnak majd, olyan baromságokat, mint Geometry Shader és Cube Map tömb. Amikkel egyébként Globális Illuminációt és dinamikus környezeti tükröződést lehet csinálni, ergo egy újabb grafikai ugrás lenne. A DX10.1-ben már az MS azt is megoldotta, hogy a Cube Map tömbök számítása párhuzamosan történjen. Hmm ... vajon miért is nem támogatják a GeForce-ok a DX10.1-et, ha annyira a grafikára pályáznak? Vagy lehet, hogy mégsem a modern eljárásokra épülő grafikai számításokért rajonganak? :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Gyusz

    őstag

    válasz Abu85 #205 üzenetére

    Hmm, megnéztem és az Euphoria tényleg nem konkrétan a fizikáért felel, pedig a fél internet tele van erre utaló infókkal. Na mindegy, attól még közel sem olyan egyeduralkodó a Havok, mint vártam volna.

    Windows 7 RC nem május 5-től lesz?

    [ Szerkesztve ]

  • Abu85

    HÁZIGAZDA

    válasz Gyusz #207 üzenetére

    Sajna az Euphoria lényegéről tényleg sok a félreértés. Pedig a hivatalos oldalon minden infó megvan. A fizikáért nem felel, de együttműködik a PhysX-el és a Havokkal is.

    hmm ... tényleg május 5 az RC. Akkor még van pár napja az NV-nek. Mindenesetre szoros lesz, mert ha visszadobják megint aláírás nélkül, akkor már időhiány van.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Bikerider

    aktív tag

    Hi

    Akar hogy is lesz a GT300 meg HD58** -szeria az biztos hogy nagy arhaboru lesz.

  • schwartz

    addikt

    válasz Abu85 #205 üzenetére

    Az említett címek (GTA4, Ghostbusters, SW: The Force Unleashed) a Havok motort használják fizikára.

    A Ghostbusters-ben biztos a Havok felelos a fizikaert? Valami mas megoldasrol beszeltek a fejlesztok. (Infernal Engine's Velocity Physics)

    If he dies, he dies.

  • Abu85

    HÁZIGAZDA

    válasz schwartz #210 üzenetére

    Valóban ... a Ghostbuster az saját fejlesztésű. Most olvastam, hogy a motor 8 szálat kezel, így a nyolcmagos procikat is kihasználják. VELOCITY physics engine a neve. Majd meglátjuk mit tud. Bár a videók meggyőzőek.
    Kösz, hogy felhívtad rá a figyelmem. :R

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • biggamer

    veterán

    válasz Abu85 #187 üzenetére

    " Az NV bizony mindent feltett a CUDA-ra, azért vannak most ilyen ramaty helyzetben, mert a platform nem terjedt el. "

    GPU-val kódol videót a Nero szoftvere : [link]
    / egy kis érdekesség :F /

    " A különböző alkalmazások körében egyre nagyobb mennyiségben vannak jelen azok a programok, amelyek az Nvidia CUDA technológiáját támogatják, így a GPU számítási teljesítményére támaszkodva tudják elvégezni az olyan idő- és teljesítményigényes feladatokat, mint például a videó vágás és kódolás, valamint a képszerkesztéssel kapcsolatos munkálatokat. Most egy újabb alkalmazással bővült a kör: a Nero Move it névre keresztelt videó kódoló szoftvere is CUDA támogatást kapott. "

    [ Szerkesztve ]

    Ha az életben minden fontos dolgot szemmel el lehetne intézni, akkor az utcákon csak halottak és terhes nők lennének ... WOT / BF3 / BF4 ... biggamerHUN

  • Abu85

    HÁZIGAZDA

    válasz biggamer #212 üzenetére

    Világos :)) ... egy grafikus kártya elsődlegesen erre való. :DD

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • biggamer

    veterán

    válasz Abu85 #213 üzenetére

    "mert a platform nem terjedt el" <---> "egyre nagyobb mennyiségben vannak jelen"

    [ Szerkesztve ]

    Ha az életben minden fontos dolgot szemmel el lehetne intézni, akkor az utcákon csak halottak és terhes nők lennének ... WOT / BF3 / BF4 ... biggamerHUN

  • Abu85

    HÁZIGAZDA

    válasz biggamer #214 üzenetére

    Miért vesznek az emberek grafikus kártyát? Csak nem játékra? ... Melyik játék van CUDA-ra írva? Ez itt a probléma, ezért esik az NV részesedése. Nagyszerű ez a Nero féle támogatás, meg a CUDA alkalmazások ... de most komolyan. Fincsi extrák ... de a Radeon játékra jelenleg jobb. Innentől kezdve, meg az egész verseny el van döntve.
    Annyira érdekli az embereket a CUDA, hogy egy - azaz 1 darab - GeForce GTX 275-re 30 darab Radeon HD 4890 eladás jut még mindig. Pedig most már az NV sem mondhatja, hogy nincs elég készlet a piacon.

    Most az NV marketinggel ilyen havi konferenciákat. Ma is lesz egy (majd megyek is rá). Miről fog szólni? CUDA, PhysX ... de könyörgöm miért? Tisztán látszik, hogy nincs beleszólása ezeknek a technikáknak az eladásokba. Jó és olcsó grafikus kártyát kell csinálni, ahogy az AMD is tette, és jönni fognak az eladások. Addig meg megy a marketing bullshit.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • biggamer

    veterán

    válasz Abu85 #215 üzenetére

    Én erre csak azt tudom mondani, hogy várd ki a végét.
    Tudod, " lassú víz partot mos ".

    Szép lassan ráébrednek, hogy azért nem annyira elveszett dolog ez az alkalmazás.
    Ki tudja, mi lesz a végén.

    Ha az életben minden fontos dolgot szemmel el lehetne intézni, akkor az utcákon csak halottak és terhes nők lennének ... WOT / BF3 / BF4 ... biggamerHUN

  • Abu85

    HÁZIGAZDA

    válasz biggamer #216 üzenetére

    Mi lesz a végén? Van OpenCL és lesz ingyenes Compute Shader. Ezek minden rendszeren futnak. Mi értelme van ezek mellett az NVIDIA CUDA-janak, vagy mondjuk az AMD Ati Stream rendszerének. Ha te fejlesztő lennél, akkor neked az lenne az érdeked, hogy ne csak a GeForce tulaj Pisti, hanem a Radeon tulaj Marika is használja a programod. Mi több vegye meg! :) De ha csak Pisti tudja futtatni, akkor már eleve nem tudsz szert tenni Marika pénzére. Potenciális vásárlóbázist vesztesz aminek egyenes következménye a kevesebb bevétel. Szerinted egy fejlesztőnek ez a célja?

    Ezt mind az NV is tudja. Ezért vették meg a Physx-et, hogy az AMD-t rákényszerítsék a CUDA támogatásra, csak ők még így sem mentek bele. Több esetben is megkeresték őket a zöldek, de mindig az volt a válasz, hogy a Physx az oké, de a CUDA-t nem akarják támogatni. Ennyi ... ha nem akarják, akkor nem. Ebbe bele kell törődni. Most, hogy itt vannak a független API-k minden kör le van futva.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • TTomax

    nagyúr

    válasz Abu85 #215 üzenetére

    Még jó,hogy a játék és sw fejlesztőket érdekli a CUDA ... erre nagyon jó példa az általad favorizált Stormrise,meg most ez a Nero is... de hozhatnék még egyéb példákat.Azt meg el kellene fognod neked is,hogy a marketing bullshit mindkét gyártótól ömlik hiszen a terméket el kell adni.. a Dx10.1 pontosan ekkora shit ... söt az egész DX egy hatalmas maszlag amit zabálni kell ha tetszik ha nem...

    (#217) Abu85
    Pontosan ezért kell foglakozni a CUDA-val amig nincs OpenCL támogatás...ja de akkor tényleg megint valamiért szemét lesz az NV ha megcsinálja....na mindegy.

    [ Szerkesztve ]

    ★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"

  • biggamer

    veterán

    válasz Abu85 #215 üzenetére

    De van aki nem a játékot nyomja éjjel-nappal.
    Másra is lehet használni a gépet nem csak arra.

    " H.264-es videókat is átkódolhatnak, mindezt a hagyományos, processzorral történő folyamatnál lényegesen gyorsabban.
    A GPU gyorsítással üzemelő kódolás csökkenti a CPU terhelését, emellett ötször gyorsabb, mint a csak CPU-t használó módszer. "

    [ Szerkesztve ]

    Ha az életben minden fontos dolgot szemmel el lehetne intézni, akkor az utcákon csak halottak és terhes nők lennének ... WOT / BF3 / BF4 ... biggamerHUN

  • #72042496

    törölt tag

    válasz TTomax #218 üzenetére

    Ha már előkerült a "shit DX". Ezt mindig meg akartam kérdezni, hogy ha újra beköszönt a szoftveres render időszaka, amiről már lehet pár helyen olvasni, akkor ez azt is jelenti, hogy a DX megy a kukába, s Linuxon is éppúgy lehet majd játszani? Vagy hogyan lesz ez?

    Valaki mondja ez jól meg. :)

  • Abu85

    HÁZIGAZDA

    válasz TTomax #218 üzenetére

    Szerinted, ha az NV tud DX10.1-et, akkor használnák a CUDA-t a Stormrise alatt a Z adatok kinyerésére? Hát persze, hogy nem. Miért is végeznénk plusz munkát, amikor a szabvány ott van, amit mindenki támogat. Illetve hát támogatni kellene, csak hát az NVIDIA-nak nem ez az érdeke.

    Valóban bullshit a DX10.1 - [link] Csak átlag 20-25% plusz sebesség van benne. Baromira nem érdeke a felhasználónak, hogy gyorsabban fusson a program a számítógépén. :DDD

    A DirectX-nél meg lehet jobbat csinálni, senki sem akadályoz meg benne. Persze előre szólok, hogy nehéz lesz.

    Az AMD előadásokon azért nagyságrendekkel kevesebb bullshit van. Ennek egy oka van ... az ipari szabványok támogatására is törekszenek. Persze megemlítik, hogy van Ati Stream-jük, meg mitudomén még mijük, de ezek kapnak kb egy vagy két oldalt. Az NV-nél a GeForce GTX 275 50 oldalas bemutatóból 30-40 arról szólt, hogy milyen jó a CUDA meg a PhysX, és hogy ezt az AMD kártyák nem tudják. Nuku teljesítményteszt a Radeonokról, mert már nem találnak olyan beállítást ahol egy átlagos játékban az ár szerinti konkurens GeForce nyerne. Ez a rideg valóság. :(

    Az NV és az AMD kártyák is tuják már futtatni az OpenCL kódot. :)

    biggamer: Nagyon kevés olyan ember van, aki nem a játék miatt vesz ilyen izmos grafikuskártyát. Szerintem az NV nem belőlük akar megélni ... sőt biztos, hogy nem, mert tönkremennének. :)

    Balika911: Nem a DX marad csak a fix futószalag tűnik el, de a compute shader az fejlődik tovább. Persze ha az OpenCL jobban ízlik a fejlesztőknek, akkor futni fog a játék minden operációs rendszeren.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • TTomax

    nagyúr

    válasz Abu85 #221 üzenetére

    Szerinted, ha az NV tud DX10.1-et, akkor használnák a CUDA-t a Stormrise alatt a Z adatok kinyerésére?
    Pont ezért kell a CUDA...mondj más módot a probléma megoldására...
    A DX10.1 akkor is egy maszlag marad,fölég úgy,hogy most veszel egy kártyát azért mert huuu,tudja de fél év múlva itt az egész komplett DX11.Tudom,most jönne az.hogy a DX10.1-el tudó kártyákkal "néhány" ficsörröl kell lemondani...Tulajdonképpen most értük meg,hogy Nativ DX10-es játékok készülnek,szeretném már látni azt az előnyt amiről eddig a marketing maszlag ment,hogy ez nekem milyen szuper.Van egy DX10-vga-m,egy DX10-et tudo vistám,amikkel DX9-ben játszottam...de vegyek DX10.1-es vga-t mert azon jól megy az elsimitás,de már a DX11-es játékokat ecsetelitek...nem értem én ezt... egyre jobban hajlok arra,hogy konzolt kell venni,mert ez egy vicc...

    [ Szerkesztve ]

    ★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"

  • Beowulf_78

    addikt

    válasz Abu85 #217 üzenetére

    "Ha te fejlesztő lennél, akkor neked az lenne az érdeked, hogy ne csak a GeForce tulaj Pisti, hanem a Radeon tulaj Marika is használja a programod. Mi több vegye meg! De ha csak Pisti tudja futtatni, akkor már eleve nem tudsz szert tenni Marika pénzére. Potenciális vásárlóbázist vesztesz aminek egyenes következménye a kevesebb bevétel. Szerinted egy fejlesztőnek ez a célja?"

    Az a baj hogy te mindent egyszerű logikával próbálsuz magyarázni. Holott nagyon sok esetben a számunkra logikus dolgok, csak másod vagy harmadlagosak. Sztem logikus amit mondasz, ezzel nincs is baj...de ha így lenne ahogy levezetted, akkor miért van hogy egyik játék nV optimalizált a másik ATI optimalizált? Hiszen a LOGIKÁNK azt mondja úgy kellene fejleszteni a játékokat hogy mind a 2 VGA gyártó kártyáin jól fusson, hiszen ez hozná a legtöbb bevételt, és a KOMPROMISSZUMOK NÉLKÜLI VGA VÁLASZTÁST.
    Ez a logikus. De mi van helyette? Késélre menő harc hogy a nagy nevű játék fejlesztő cégek melyik VGA-ra optimalizáljanak. Így u.a. a helyzet alakul ki, ami az XBox 360, és a PS3 körül. Van ami csak XBox, van ami csak kizárólagos PS3 név. Pl. aki imádja a Gran Turismo-t az PS3 fog venni. Aki szereti a Halo sorozatot az meg XBox 360-at. Persze van olyan hogy erre is meg arra is. De a húzónevekre nagyon vigyáznak, mint a hímes tojásra.
    PC-nél dettó ez van.
    NEM ÉRDEKE A GYÁRTÓKNAK A KÖZÖS EGYSÉGESÍTETT PLATFORM, mert ezzel nagy kockázatot vállalna mind az ATI mind az NV. Miért? Mert mind a 2 gyártó kártyáin jól futna minden, és kizárólagosan csak a jobb, gyorsabb hardveren múlna 1-1 VGA széria sikere. Ez pedig kétélű fegyver. Mert egy NV által eltalált G300 architektúra azt eredményezné, hogy a kutya se venné az Ati 5xxx szériáját. Persze ez fordítva is igaz.
    Itt jön az amit mondtam, hogy egyik sem fog csődbe menni, mert mindig is meglesznek azok a "húzó nevű" játékok, ami miatt érdemes lehet megvenni egy gyengébb szériájú VGA eresztést, ez pedig kizárja az egységesített független API-t, ill. a mindkét rendszerre történő optimalizálást.
    Szóval...nem biztos hogy a logikus okfejtésed lesz a nyerő. ;)

    Szakmai kérdésekkel ne pü-ben keress....használd a megfelelő topikot! A 4890 CF tesztet amit elkezdtem, nem fogom befejezni. Majd megcsinálja más. A meglévő nVidia-s cikkeimet pedig törölni fogom.

  • keIdor

    titán

    válasz Gyusz #202 üzenetére

    Én ki is játszottam. Nem bugos, viszont gyenge lett...

    ¡GLORIA A LAS PLAGAS!

  • keIdor

    titán

    válasz Abu85 #208 üzenetére

    Nincs... nekem már jön le a 7100 build, ami a végleges RC. Május 5.-én kerűl ki az MS oldalára, nem mindegy! :DD

    ¡GLORIA A LAS PLAGAS!

  • Abu85

    HÁZIGAZDA

    válasz Beowulf_78 #223 üzenetére

    Régen azért baromi jó volt a fejlesztőknek, mert kopogtatott az NV és adott programozókat akik jól optimalizáltak. Annyira elenyésző volt az ATI tulajok száma, hogy sokan felvállalták. Ezért volt egy csomó játékban TWIMTBP logo. Most, hogy a Radeonok a kereskedelemben kicsinálták a GeForce-okat, a célcsoport többségében Radeont alkalmaz, ezért a fejlesztők az elmúlt egy évben felbontották a TWIMTBP szerződéseket ... vagy a lejártakor egyszerűen nem újították meg őket.
    Az is fontos tényező volt, hogy a fejlesztők is az NV-től tanultak ... rengeteg DX9 doksi volt a zöldeknél, most megfordult a világ. Az AMD dokumentálja az új eljárásokat. A fejlesztők is ebbe az irányba kacsingatnak.

    Ha annyira nem érdek a közös platform, akkor minek a DirectX, OpenGL és a többi. Miért támogatják a gyártók? Hát persze, hisz ez az ipar érdeke. Hogy mindent egyszer kelljen megírni és az több rendszeren fusson. Ez a szabvány lényege. Szabvány nélkül a PC-s játékipar a jelenlegi komoly szinten nem létezne.

    Keldor papa: hát akkor elment a hajó. ;]

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Beowulf_78

    addikt

    válasz Abu85 #221 üzenetére

    "Valóban bullshit a DX10.1 - [link] Csak átlag 20-25% plusz sebesség van benne."

    Csak egyet felejtesz el. Ezek közül egyik se lesz húzónév. Csak abban az esetben nyerne teret az ATi a DX11-ig, ha minden műfajban lenne legalább egy DX10.1 húzóneve.
    Mit mondjak...Stormrise bukás, Battleforge szintén nem lesz nagy durr bevétel szempontjából. A HawX talán az egyetlen a három közül ami ér is valamit, de nem lesz az év játéka. Elég egysíkú. Ezzel itt ki is fújt az AMD-ATI reklámfilmjének az elemzése. Majd meglátjuk mi lesz a Starcraft 2, Mafia 2, Alan Wake, Diablo 3...mert ezek inkább a húzónevek 2009-es évben. :U Mást nem tud csinálni az Nv DX11-ig mint minnél több húzónevet megtartani, és újakat megvenni. Így lazán pariban lenne még 2 év után is a hiper-szuper DX10.1 ATI kártyákkal egészen DX11-ig. Ez jó egy nV-t választó felhasználónak? Jó! Lassítja a fejlődést? Persze. De hová rohanjanak? :U Nem fogok a kardomba dőlni ha DX11-ig marad ez a szintű grafika, és gyorsaság. Nekem megfelel.
    Az pedig a másik hogy először azzal érveltetek hogy szebb a DX10.1. Majd amikor ez megdőlt, mert egymás mellett levő képeken bekarikázva a különbséget is közel kellett hajolnom hogy lássam a különbséget. :B Ezek után jött hogy nem a szépség hanem a gyorsaság, mert AA mennyivel gyorsabb DX10.1 alatt. Lehet. Ezt nem vonom kétségbe. De hol van ennek létjogosultsága? Már 1680x1050 is kicsik a képpontok, nem hogy 1920x1200-as felbontásnál, ami folyamatosan terjedőben van. Ergo tök felesleges az AA. 1440 ill. 1280-as felbontásoknál volt értelme, ahol a recézettség valójában rombolta a játékélményt. De az AA hiánya 1680 felett már régóta nem befolyásolja a játékélményt.
    Tehát mi értelme van a DX10.1-nek ha egyik aspektusból sincs létjogosultsága FELHASZNÁLÓI szemmel. :U
    Még mindig azt érzem, hogy az ATI erölködik, aminek általában nyögés a vége, az NV meg megpróbálja megőrizni a hidegvérét, és a kivárásra játszik.

    Szakmai kérdésekkel ne pü-ben keress....használd a megfelelő topikot! A 4890 CF tesztet amit elkezdtem, nem fogom befejezni. Majd megcsinálja más. A meglévő nVidia-s cikkeimet pedig törölni fogom.

  • Abu85

    HÁZIGAZDA

    válasz Beowulf_78 #227 üzenetére

    Remélem ezt most nem mondtad komolyan. ;]
    Egyébként ne nézzük a DX10.1-et. ... De ettől még a Radeon birtokolja minden szegmensben a legjobb ár/teljesítmény mutatót. Ezzel nem lehet küzdeni, mert a jelenlegi GeForce architektúra alkalmatlan erre.
    Az NV hidegvéréről meg annyit, hogy órás szintű a marketing. Azt is bejelentik, ha valamelyik oldalon egy játékban elveri a GeForce a konkurens Radeont. Szóval nekem inkább kapkodásnak tűnik, ami megy a zöldeknél, de ez ilyen viszonyok között világos, hisz az eladások gyengék, a partnerek pedig elégedetlenek.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • keIdor

    titán

    válasz Beowulf_78 #227 üzenetére

    Egyetértek veled, azok nem húzónevek. Szerintem most mind a kettő oldal kapkod, ezért vannak egymás hegyén-hátán a kártyák teljesítményben, gondolok itt azokra a kártyákra, amik a HD4770-HD4890 és GTS-250-GTX-285 között vannak.
    Diablo 3, Alan Wake az fix 2010 sajnos...:(
    Ami idén tuti jó lesz az a: Bioshock 2, Mafia 2, Assassin's Creed 2, Aliens vs. Predator 3, Battlefield Bad Company 2, Wolfenstein 2, Starcraft 2! :K
    Bár az AvP3 is lehet 2010.

    [ Szerkesztve ]

    ¡GLORIA A LAS PLAGAS!

  • Beowulf_78

    addikt

    válasz Abu85 #228 üzenetére

    Na! :Y Haladunk! ;] :P Akkor már ott tartunk, hogy hagyjuk a DX10.1-et sebesség és képminőség szempontból, és vessük be az utsó fegyvert amivel érvelni lehet a zöldek ellen..az ár / teljesítmény arányt, amivel az NV nem tud versenyezni. :B ;] Egyértelmű hogy a legújabb kártya ami kapható is széles körben az a 4890, evidens hogy viszik, tény hogy jelenleg ez a sláger kártya. GTX 275 is van elvétve, de tény hogy drágább, még ha nem is sokkal.
    GTX 275-ből azért ennek ellenére sokat fognak eladni, az biztos. ;) Nem hinném hogy ennyire kiélezetten versenyezni akarna az NV az árakban. Mindig is drágább volt. Amióta az NV-ATI harc létezik. Valószínű ez így is fog maradni. De ha ez akkora gond lenne már rég csődbe mentek volna, és attól függetlenül hogy drágább, az elmúlt években többször volt az Ati padlón mint ahányszor az NV. Nem véletlenül lett ugye a nevük AMD-ATI. :U :P
    Nem azért mert fullon voltak lóvéval a bevételekből. ;]

    Szakmai kérdésekkel ne pü-ben keress....használd a megfelelő topikot! A 4890 CF tesztet amit elkezdtem, nem fogom befejezni. Majd megcsinálja más. A meglévő nVidia-s cikkeimet pedig törölni fogom.

  • VinoRosso

    veterán

    válasz Abu85 #206 üzenetére

    Miért lenne feltétlenül bonyolult az amiben sok függőség van?

    Próübálj meg rá sw-es ütemezőt írni, aztán meglátod :D ( nem egyszerű alacsony költségű algoritmust kreálni ilyenekre)

    A folding az meg csak 1 alkalmazás, másik 10ben meg pörög mint a búgócsiga. Mint említettem minden GPU masszívan párhuzamos számításokban tud villogni, ahol nagy mennyiségű független adaton kell ugyanazt az egyszerű műveletet végrehajtani. Olyan meg hogy nincs függőség olyan nincs( utasítás vagy vezérlés függőség mind1.. ) :N A függőség nem architektúra fícsör, hanem egy probléma sajátossága, az hogy ráhúzod a legjobb algoritmust, és ebben is vannak fix lépések, amiknek meg kell előzniük a másikat. Ilyenkor nem lehet párhuzamosítani egyetalán, tehetsz alá akármilyen vasat, hacsak nem képes időutazásra, nem fog javítani a telesítményen. Ameddig kauzalítás van, addig pedig lesz mindig ilyen, és minden kódban van ilyen. Az ütemezővel annyiban lehet javítani a helyzeten, hogy ha nincs akkora fokú párhuzamosság egy kódban, hogy kihasználja a telejes számítási kapacitást, akkor a maradék lazsáló sp-oknak lehessen melót osztogatni.Geometry shadert leginkább + sp-kkel lehet gyorsítani, ezért jobbak benne a radeonok, 300 körüli sp számmal már r600 szinten lenne a g80 is. Dx10.1 nem azért nem támogatja véleményem szerint az NV mert mindenképpen a CUDA-val akarja kitúrni a DX-et, hanem egyszerűen nem éri meg nekik. Sima anyagi okai vannak, előre teveztek egy olyan architektúrát 3-4 évvel ezelőtt, amivel az akkori és a közeljövő alkalmazásai széles körben jó teljesítményre képesek voltak, és egy csomó óvét bezsebeltek vele. Ekkor sehol sem volt még a dx10 sem, nem hogy a dx10.1. Idén kezd kijönni a hátránya ennek, de nyilván 3-4 évig nem a pénzeszsákokon ültek, hanem közben dolgoztak egy teljesen új architektúrán. Ennyi idő pedig elég sok probléma felfedésére és megoldására elég . G80ból ezalatt kipréselték amit lehet, ősszel meg már jön egy dx11-es architektúra, és amit felhozol hátrányként a G80 ellen az szerintem jó eséllyel el fog hervadni mint a rózsaszál. Nem értem mindek fikázod már jó előre azt amiről még fogalmad sincs( illetve tudom, ez a fanatizmus :D ) , és hogy honnét veszed, hogy megoldhatatlan feladat az nvidiának egy zsír dx11-es chip gyártása. Ha pedig dx11ben jó lesz, nagy valószínűséggel ugyanolyan jó lesz dx10.1ben is, de hogy milyen dx10.1ben az szerintem addigra már senkit nem fog érdekelni.

  • Abu85

    HÁZIGAZDA

    válasz VinoRosso #231 üzenetére

    Én nem fikáztam a GT300-at, csak írtam, hogy az előzetes infó szerint nem biztató. Nem grafikára lesz, ahogy a G80 és a GT200 sem arra van. Ennyi ... már leírtam, hogy miért. Bár ez nem újdonság. Majd meglátod az év végére, hogy mi lesz a helyzet. :)

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • VinoRosso

    veterán

    válasz Abu85 #232 üzenetére

    Nem grafikára lesz, ahogy a G80 és a GT200 sem arra van

    Fura hogy ezt mondod a a G80 vs R600 kapcsán. Nem azért de Te teszteket néztél? ( bocs de úgy érzem ezek után nekem is kell modnanom valami cifrát :D ) Gyakorlatilag az atinak rv770 proig nem volt olyan GPU-ja, ami megszorongatta volna a 8800GTX-et. Így akárhogyis nézzük, egy 1,5-2 évig egyeduralkodó chipről mondtad azt, hogy nem jó grafikára. Kiváncsi leszek, hogy lesz e valaha még ilyesmire példa( én nem emlékszem, hogy ezelőtt lett volna ) Kérdés az is, hogy akkor a többi kártya mire való? Mondjuk egy rv670XT pl, ami sokáig még a G96ot se tudta kiütni a nyeregből. :U Egyedül a GT200-al voltak poblémák, leginkább fogyasztás és ár miatt, nem pedig a teljesítménye szempontjából, mivel még mindig ez a legerősebb GPU.

    [ Szerkesztve ]

  • Abu85

    HÁZIGAZDA

    válasz VinoRosso #233 üzenetére

    Néztem teszteket pontosan tudom mennyire gyenge az ideiglenes adat kezelése a rendszernek. De ez már megint lefutott dolog. Az RV770 pedig azért érte be az NV-t, mert G80 architektúra akkor volt jó, amikor megjelent, az R600 pedig akkor lett működőképes, amikor az RV770 jött. A GT200 előnye pedig már nem egyértelmű az RV770-RV790-nel szemben. Az új játékok már az AMD rendszerének feküdnek és fognak feküdni. Ez már tényként kezelhető. (mi is leváltjuk a régi versenyzőket és jönnek az új DX10-es tesztjátékok ... jobban reprezentálják a jövőbeli teljesítményt)
    De nem vitázom tovább. Anno megmondtam, hogy az FX5900-at kicsinálja majd DX9-ben a középkategóriás Radeon 9600 is, elég sokan röhögtek, aztán a HL2 után már belátták, hogy igazam volt. Meglátjuk, hogy alakul a dolog a DX10-ben. ;) Amire ugye a jelenlegi architektúrák készültek.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • VinoRosso

    veterán

    válasz Abu85 #234 üzenetére

    Nézd én abban nem viztázom veled, hogy hogy dx10.1 alatt a radeonok jobban mennek mert ez tény. Sőt még sima dx10 alatt is ha kizárólag a GS fázist nézzük(bár ugye a dx10 igazából nem a GSről szól) Én csak annyit mondtam, hogy ha gyártó vagy úgy kell gondolkodnod hogy minél több hasznot zsebelj be. Az NVnek meg így volt a legnagyobb haszna, hogy megcsinált egy 2006ban korszerűnek számító architektúrát, amivel 2 évig uralta a piacot, és amig lehetett húzta. Addig húzta, hogy nem volt szüksége arra, hogy egy dx10.1es magot gyártson, ha nagyon muszály lett volna meglépi, de felesleges, szerintem már kb 1-1.5 éve eldönthették, hogy inkább dx11re gyúrnak, addig meg kihúzzák a meglévő architektúrával. És én ezt teljesen logikusnak látom, ha én is csupán az anyagiakat tartanám szemlőtt, én sem csináltam volna másképp, mert ez vlószínűleg optimum, jó dx10.1es chiphez át kellett volna szabni az egész architektúrát, és ezt fél-egy éves huzavonáért nem érdemes. Inkább megvették a aegia-t és így kb ugyanúgy konkurrál6nak a dx10.1-el, ez bőven elég volt ahhoz, hogy a dx10.1 ne terjedjen el. Igaz én személy szerint annak örültem volna a legjobban, ha piacra dobnak egy dx10.1es GPU-t, és akkor nem lenne miről beszélni. Dehát ez van, szivem szerint se win-t, se dx10-et nem használnék, de sajna nincs választás, mivel ez a mainstrean.

  • tlac

    nagyúr

    válasz #72042496 #220 üzenetére

    s Linuxon is éppúgy lehet majd játszani? Vagy hogyan lesz ez?

    ne reménykedj, az opengl-es játékokat sem írták meg linux-ra (pár kivételtől eltekintve)

  • Abu85

    HÁZIGAZDA

    válasz tlac #236 üzenetére

    De azokat azért nem írták meg, mert az OpenGL csak egy a sok dolog közül ami nem az MS fennhatósága alatt van. Ott van még az MS Live, vagy a .net ... ésatöbbi. Ezek is kizárják a Linux-ot.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • tlac

    nagyúr

    válasz Abu85 #238 üzenetére

    ok, grafikán kívül még kell használni pár library-t
    de az OpenCL-el, Compute Shader-rel, ugyanúgy meg marad a probléma

  • VinoRosso

    veterán

    válasz tlac #239 üzenetére

    teljesen jogos a felvetés, ha konzol-pc pc-konzol portok léteznek, akkor nem nagy kunszt játékot fejleszteni linuxra. Az ok egyszerű, nem éri meg vele vesződni (anyagilag).

  • R.Zoli

    őstag

    válasz VinoRosso #235 üzenetére

    A Te elméleted szerint akkor most az NV DX11-es chipje bármi lesz a neve nagyon ütni fog ugye? Mert akkor most nekiálltak és fejlesztettek egy DX11-es chipet... Szerintem nem így lesz de majd meglátjuk. Márcsak azért sem lesz így mert amit Abu mond szerintem igaz és ha az NV most visszatért a grafikai vonalra gyúrásra akkro a GPGPU piacot kellene feladnia amibe egy halom pénzt nyomott bele és ott lehetne egyeduralkodó,arról nem is beszélve ,hogy újra kellene szinte tervezni alapjaitól egy chipet ha újra a grafika lenen a fő szempont... Namost az AMD chipje R600-tól nézve is kőkemény grafikai problémák megoldására lett kitalálva míg az NV csinált egy olyan chipet ami kielégítő grafikában és GPGPU terén igazán erős. Amit Te mondasz ,hogy egy GT200-as chip überjó grafikára is mert nézzük meg ,hogy az AMD grafikai chipre gyúrt míg az NV nem és mégis alig pár (kb. 15%) százalékkal erősebb egy RV770 egy GT200b-vel szemben DX10.1 alatt... Ez igaz ,de könyörgöm nézd már meg ,hogy milyen 2 chip áll egymással szemben, az egyik egy monstrum közel másfél milliárd tranyóval kevesebbet tud DX10.1 alatt grafikában mint egy 1 milliárd tranyós közel fele akkora chip ami nemcsak ,hogy kisebb fogyasztású de ráadásul majdnem fele annyiba kerül... Szóval a TE gondolatmeneted ott bukik meg ,hogy az NV KŐKEMÉNYEN SZOP MOST mert a bazinagy chipje nem bír komoly grafikai feladatokban a kis gagyi közép-felső kategóriába szánt "kis buta" Ati chippel... Ha megnézed mondjuk az RV790-et akkor még szomorúbb a helyzet... DX9 alatt is kevéssel van csak lemaradva (kevesebb mint 10%) ez a bazi nagy ormótlan ,kazán,drága GT200b mögött... Ez nagyon is mutatja ,hogy ki mire gyúrt rá...Legalábbis ha neked ez nem világos akkor nincs miről beszélni...

    HA meg rágyúr most DX11-re az NV olyan monolitikus chippel mint amiről most cikkeznek akkor is KO... Sajna ez a vonat már elment, az Ati nem ment csődbe és innéttől kezdve nincs miről beszélni...Annyi Radeont adnak el mostanság ,hogy nem lesz már semmiféle NV optimalizáció... HA lesz is valami akkor inkább az ATinak kedvez mert ők tették le a tech doksikat az asztalra mit és hogyan...

    Egyébként ha pedig csakis DX11-re gyúrnának akkor a GT200 sem lett volna... Hidd el az a gond ,hogy nem volt B terv... Az Atinak buknia kellett volna, de nem történt meg... A GT200 is grafikai vonal szempontjából egy tóldozott foltozott megoldás... Mért foltoztak volna a G90 hibáin ,hogy DX10 alatt ne omoljon össze ha az volt a cél ,hogy ezzel az architektel kihúzzák a DX11-ig? Nincs logika az érvelésedben... Mint mondtam itt a legnagyobb gond az ,hogy a G90 hibái elő sem kerültek volna mert már rég CUDA lenne mindehol és nem kellett volna GT200...

  • Departed

    őstag

    válasz Beowulf_78 #227 üzenetére

    Én 1680-ban játszom, és szerintem éppen hogy befolyásolja az AA a játékélményt. Most azért, mert erre a felbontásra váltottam, semmivel sem éreztem kisebb szükségét az AA-nak, sőt, kifejezetten zavar, amikor egy játék nem támogatja.
    Sok éve kitalálták már, és a DX10.1 AA-barátságára sem gyúrtak volna rá, hogy ha a manapság használt magasabb felbontásokban nem lenne rá szükség. Mondjuk egy ilyen árú kártyánál, mint a Tiéd, nem is kérdés, hogy DX10.1 hiányában sincs gond akkor sem ha AA-t bekapcsolsz. ;)
    De a lényeg: szerintem felbontástol függetlenül zavaróak a recék, lehet cáfolni :)
    És éppen ezért örömmel látom hogy figyelnek az eltüntetésük gyorsítására. :K

  • VinoRosso

    veterán

    válasz R.Zoli #241 üzenetére

    Ne haragudj de annyira nincs kedvem válaszolgatni a fanatikusok hozzászólásaira... :( csak tudnám, hogy külföldön miért nincsenek ilyenek??? Miért csak hungarian feature az efféle észosztás. :W, nincs még egy ilyen nemzet a földön, az biztos. Ráadásul még akik valamit hozzá is tudnak szagolni a témához, még azok is ferdítenek egy csomót, hogy jó színben tűntessék fel a rajongott gyártójukat. Én csak tényeket vázoltam, hogy az nv jóval több pénzt keresett így, mintha folymatosan fejlesztettek volna. 2006 novemberében jött ki a 8800GTX ennek 2008 júniusáig nem volt ellenfele, 8800 GTS és később a helyére érkező 8800 GT 2006 novtól 2008 júniusig ár/érték arányban is a legjobbak voltak, ezt mintha figyelmen kívül hagynátok. Ha ezek a kátyák nem voltak jók grafikára, akkor a felső becslés miatt az összes alatta lévő kártya( ergo az r600is ) alkalmatlan volt grafikai munkára. Szerintem egyik semm alkalmatlan különben nem venné meg senki, egyszerűen csak arról van szó, hogy az nv-nél nem fél évekre terveznek, hanem 2-3 éves ciklusra, és kidobnak egy értékálló chipet, amiben van annyi, hogy évekig profitálhatnak belőle. Pont emiatt gondolom azt, hogy ha ismét előhozakodnak egy új architektúrával, az megint akkorát fog szólni, hogy évekig ellesznek belőle. Attól még hogy 512 sp van egy choben, nem feltétlen kell nagynak lennie. A radeonban 1200 lesz mégsem pattog egyikőtök se, hogy hú majd milyen nagy lesz a magméret. Nem hiszem, hogy megoldhatatlan feladat a tranyószám redukálása, senki nem mondta, hogy a jelenlegi architektúrát fogják továbbvinni, sőt ha visszagondolunk 192 bites kártyákról érkeztek hírek korábban, tehát sejthető, hogy jelentősen faragnak az előállítási költségen. Merem feltétlezni, hogy egy akkora szellemi tőkével rendelkező vállalat, mint az nvidia képes felfogni azt, hogy mi mennyire éri meg neki. 10000% hogy ők sokkal jobban átlátják a helyzetet amiben vannak, és nálam és nálad okosabb közgazdászok tömkelege áll a rendelkezésükre, hogy kikalkulálják mi éri meg nekik a legjobban. Azt az agyrémet meg nem tudom honnét szültétek, ha valami jól működik általános számításokban, az nem lehet jó grafikára. G80 ráaz élő példa, vezető chip volt mindkét szegmesben éveken keresztül. De említhetném az r700at is. Egy chip "jóságát" elsősorban az határozza meg, hogy milyen alkalmazásokat futtatnak rajta, illetve hogy mekkora az a spektrum, ami alkalmas lehet a optimalizációra ezeken. Mindkát chip annak ellenére, hogy teljesen más felépítésű, ha megfelelő célra alkalmazzák, nagyon jó lehet általános alkalmazásokra. Kb olyan ez mint a 3D, ott is van amelyik az egyiknek van amelyik a másiknak fekszik inkább. A GPGPU alkalmazások köre pedig elég tág, ez nem directx, a jelfeldolgozáson keresztül az ip csomagszűrésen át a klímakutatásig mindent lehet...

  • Beowulf_78

    addikt

    válasz Departed #242 üzenetére

    Én 1920x1200 tolom. Nem igazán érzem szükségét az AA-nak. :U Van hogy olyanom van és rákapcsolom, de nem vagyok vele úgy, hogy csak és kizárólag AA. :U

    Szakmai kérdésekkel ne pü-ben keress....használd a megfelelő topikot! A 4890 CF tesztet amit elkezdtem, nem fogom befejezni. Majd megcsinálja más. A meglévő nVidia-s cikkeimet pedig törölni fogom.

  • schwartz

    addikt

    válasz R.Zoli #241 üzenetére

    az NV KŐKEMÉNYEN SZOP MOST mert a bazinagy chipje nem bír komoly grafikai feladatokban a kis gagyi közép-felső kategóriába szánt "kis buta" Ati chippel...

    :Y :D

    [ Szerkesztve ]

    If he dies, he dies.

  • R.Zoli

    őstag

    válasz schwartz #245 üzenetére

    Felőlem a kiskutyádat is berakhatod de attól nem változik a helyzet,amit írtam az tény... Az RV790 vs. GT200b viszonylatában az van amit írtam, DX9 alatt sem meggyőző az NV előnye (max. 10%) pedig ergo szerintetek erre lett kitalálva ez a kártya és ez a DX10-re is igaz. Ha meg ugye DX10.1 alatt nézzük a dolgokat akkor kb. 20-25% előnye van egy GTX285-höz képest az RV790-nek... Na ez az ami bukó és szopás NV-nek... Az AMD az RV790-et nem is a GTX285 ellenfelének szánta hanem a GTX260 (216-os) ellen és ez sok mindent elmond...

  • TTomax

    nagyúr

    válasz R.Zoli #246 üzenetére

    Ha meg ugye DX10.1 alatt nézzük a dolgokat akkor kb. 20-25% előnye van egy GTX285-höz képest az RV790-nek...
    No hát akkor azt is megtudtuk,hogy az GT200b DX10.1 képes....
    Dobálózol itt a számokkal meg a százalékokkal... DX10.1-es eredményt hasonlítasz DX10-es eredményhez..
    Szerintem ez az ami "bukó"... meg még "orális" is... :U

    ★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"

  • Abu85

    HÁZIGAZDA

    válasz TTomax #247 üzenetére

    Ezt a kérdést már kitárgyaltuk, az NV döntött így, hogy nem támogatja a DX10.1-et. Az egyedül az NV mérnökei tehetnek arról, hogy ilyen ramaty helyzetben vannak. Az ipari szabványokat támogatni kell, ez mindenki érdeke, még az NVIDIA-é is. Senki nem akarja, hogy úgy járjanak, mint a 3dfx, pedig jelenleg ilyen irányba haladnak.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • VinoRosso

    veterán

    válasz R.Zoli #246 üzenetére

    DX10.1 alatt nézzük a dolgokat akkor kb. 20-25% előnye van egy GTX285-höz képest az RV790-nek.

    persze főleg fc2ben meg clear skyban, ez már akkkora LOL, hogy nem bírom ki

    Az AMD az RV790-et nem is a GTX285 ellenfelének szánta hanem a GTX260 (216-os) ellen és ez sok mindent elmond..

    na és gtx275 ellen mit szánt, talán a 4870 x2-t? Csak nem tudom, hogy akkor a feljebb lévő 3 kártya ellen mit szán? Meg hogy miért késett fél évet a 4890-el, miért a gtx275-el egy időben jött ki...elvégre a gtx260 már elég régóta kinnt van. Ja és hogy mi értelme van versenyzőt harcba küldeni olyan elllen, ami ellen már van versenyképes termék(4870). És biztos hülye az a sok külhoni harveroldal, amiért olyan sok GTX275 vs 4890 tesztet csinálnak, mert nem tudják, hogy a GTX 260 ellen küldte harcba az ATI.

    De az én véleményem ettől még az, hogy mind szar, agymosott, marketingdumás

    ________________K__________A__________M___________U_______________________

  • R.Zoli

    őstag

    válasz VinoRosso #243 üzenetére

    Ne haragudj de annyira nincs kedvem válaszolgatni a fanatikusok hozzászólásaira... csak tudnám, hogy külföldön miért nincsenek ilyenek???

    Detto, külföldön senki sem személyeskedik és a másik állításait nem ilyen halandzsa hülyeségekkel próbálja rossz fényben feltüntetni... Akkor én meg mondhatnám ,hogy a Te írásod egy elfogult gagyi NV buzulás... DE nem tettem, leírtam a véleményem és kész,nem támadtalak, Neked is cask ezt kellett volna tenned, erről szól egy egészséges vita... Szóval először magadba nézzél mielött mást akarsz osztani mert valóban pont ez megy ebben az országban ,hogy mindenki beszól csak a másiknak ahelyett ,hogy kész érvekkel vitatkozna...

    2006 novemberében jött ki a 8800GTX ennek 2008 júniusáig nem volt ellenfele, 8800 GTS és később a helyére érkező 8800 GT 2006 novtól 2008 júniusig ár/érték arányban is a legjobbak voltak, ezt mintha figyelmen kívül hagynátok. Ha ezek a kátyák nem voltak jók grafikára, akkor a felső becslés miatt az összes alatta lévő kártya( ergo az r600is ) alkalmatlan volt grafikai munkára. Szerintem egyik semm alkalmatlan különben nem venné meg senki, egyszerűen csak arról van szó, hogy az nv-nél nem fél évekre terveznek, hanem 2-3 éves ciklusra, és kidobnak egy értékálló chipet, amiben van annyi, hogy évekig profitálhatnak belőle.

    Ott bukik meg a dolog ,hogy gyakorlatilag a 2008 Júniusa óta mint ahogy írtad az NV a legtöbb pénzt hozó szegmensben nyagyon alúl marad az ATI középkategóriás chipjeivel szemben... A TWIMTBP szerződések sorozatos felbontása nem hiszem ,hogy az NV érdekében állt ,sőt mostantól kezdve nem lesz annyi NV optimalizált játék mint eddig volt így sokkal érdekesebb kép alakulhat ki... A partnerek profitjai visszaestek míg Ati vonalon szárnyalnak...Az NV Dx11-es chipjét év végére várják... Amit leírtál időszakot az egy nyereséges időszak volt az NV számára míg kb. ugyan ilyen hosszú időszak lesz ami bukó, szóval nem hiszem én ,hogy olyan nagyonh erre apelláltak... A piaci részesedése vesztése, a TWIMTBP szerződések felbontása, a fokozódó Ati kártya optimalizációk több software cégtől illetve a CUDA népszerűtlensége (ami ugye kevesebb eladott kártya esetén még inkább kisebb kört érint) biztosan nem volt belekalkulálva a dolgokba... Ha az Ati még a nyár végén kihozza a DX11-es chipjét akkor év végéig még nagyobb bukta lesz itt nekik sőt ki merem jelenteni ,hogy a 4770 megjelenésével ebben a szegmensben nem is lesz szinte kereslet NV kártyákra jó darabig... Ezt ha bekalkulálták akkor ok ,de kétlem...

    Ha ezek a kátyák nem voltak jók grafikára, akkor a felső becslés miatt az összes alatta lévő kártya( ergo az r600is ) alkalmatlan volt grafikai munkára.

    Az R600 egy kényszermegoldás volt ,hogy abban az állapotban hozták piacra... Ki kellett hozni és mutatni belőle valamit mert különben oriási presztizsveszteség és a partnerek bizalma is elveszett volna nem beszélve a fejlesztőkről akik semmit sem láttak volna az úgy architecturából... Az R600-nál buknia kellett volna az Atinak ez egy nyílt titok... DE látszik abból is ,hogy folyamatosan veszteségeket könyvelt el az AMD az Ati megvétele után mert túl drágán vettek meg egy olyan céget ami éppenhogy túl akart élni egy olyan projektet amibe az AMD nékül beletörött volna a fejszéje... A 3870 (Rv670) megjelenésével már látszott is ,hogy az R600 valami hasonló chip akart lenni de akkor az időhiány nem tette lehetővé a kibontakozást és most az RV770 környékén kezd beérni az architekt...

    Attól még hogy 512 sp van egy choben, nem feltétlen kell nagynak lennie. A radeonban 1200 lesz mégsem pattog egyikőtök se, hogy hú majd milyen nagy lesz a magméret. Nem hiszem, hogy megoldhatatlan feladat a tranyószám redukálása, senki nem mondta, hogy a jelenlegi architektúrát fogják továbbvinni, sőt ha visszagondolunk 192 bites kártyákról érkeztek hírek korábban, tehát sejthető, hogy jelentősen faragnak az előállítási költségen

    Ez mind csak feltételezés... Én meg mondhatom azt ,hogy más hírek pedig sokkal komplexebb chipről szólnak mint akár a GT200b volt ami sokkal több tranyó és nagyobb magméretet feltételez...Most akkor Te NV fan vagy mert az NV számára "jobb" hírt hiszed el én meg Ati fan vagyok mert a "rosszabbnak" hiszek??? Ugyan már... Én egyszerűen kételkedem abban ,hogy az NV újra visszaáll és vert helyzetből iszonyat pénzeken fejleszt egy új architektet ahol eleve hátrányból indul és most majd lever mindenkit... Lehet ,hogy így lesz de valljuk be nagyon kicsi az esélye... A Dx11 napjai is meg vannak számlálva, ergo gyökeresen új architektet fejleszteni 2-3 évre a a software render-ig... Na hát lehet ,hogy itt mondták a kozgazdászok ,hogy nem...

    Merem feltétlezni, hogy egy akkora szellemi tőkével rendelkező vállalat, mint az nvidia képes felfogni azt, hogy mi mennyire éri meg neki. 10000% hogy ők sokkal jobban átlátják a helyzetet amiben vannak, és nálam és nálad okosabb közgazdászok tömkelege áll a rendelkezésükre, hogy kikalkulálják mi éri meg nekik a legjobban.

    Mi is erről beszélünk...Ők már kikalkulálhatták azt is ,hogy nem éri meg itt maradniuk a VGA piacon és kiszállnak, marad a jövőben az Intel és AMD harca ők ebbe már nem tudnak beleszólni (x86 hiánya)...

    Egy chip "jóságát" elsősorban az határozza meg, hogy milyen alkalmazásokat futtatnak rajta, illetve hogy mekkora az a spektrum, ami alkalmas lehet a optimalizációra ezeken. Mindkát chip annak ellenére, hogy teljesen más felépítésű, ha megfelelő célra alkalmazzák, nagyon jó lehet általános alkalmazásokra.

    NA igen de mondjuk ezek a spektrumok eléggé behatároltak... Talán a Larrabee-re igaz amit mondasz de a mai GPGPU-k felépítése sokkal specifikusabb és alkalmassa teszi egy területre illetve alkalmatlanná egy másikra minimális kis architekt különbség... Pont ebben lesz a Larrabee előnye ,hogy sokkal általánosabb mint egy GPGPU viszont közelebb áll a GPU-k párhuzamos feldolgozási képességéhez mint wegy CPU... Nem véletlen ,hogy ez lesz a "jövő" Intzelék szerint sem akik ugye azért nagyokat nem szoktak tévedni...

Új hozzászólás Aktív témák