Hirdetés

Keresés

Hozzászólok Aktív témák

  • janos666

    nagyúr

    válasz schwartz #597 üzenetére

    Fasza, én tudom a megoldást! Szólj a TSMC-nek, hogy tegyék be a következő DVD-t (VI. rész), és szeptemberben jöhetnek is a kártyák. :))

    A lenti fejtegetéshez: Szerintem is nagyon meg fog lepődni ezúttal Abu, mit és mikor hoz ki az nv. Az AMD most lazábbra fogja, azt hiszi az Rv770 sikere után bármit eltud adni, ha még ráadásul DX11-es is, és nem erőlteti túl a dolgokat (hagy tartalékot az architechtúrában jövőre is), az nv-nél viszont lehet hogy bement Jen-Hsun Huang a tervezőrészleghez, kizavata a kurväkat az utcára, az utcákat meg lesöpörte az asztalról, és azt mondta most dolgozzatok is egy kicsit, mert unom, hogy csak a számat tudom tépni, ha VGA-ról kéne beszélni, és így született az alább látható A01 revítiós szilikonlapka (még félig betépve), de év végére lesz valami érdekességük. :))

  • janos666

    nagyúr

    válasz rocket #610 üzenetére

    Én jobb szeretem Abu-t annyiból, hogy vele egyszerűbb a társalgás. Olvasom a híreit, vagy hsz-eit, és egyszerű lineáris transzformációt kell csak beiktatni szűrőként (jó:=rossz;ATI:=Nv;DX11=DX9). Valamint okosnak érzem magam, ha látom a sok agymosott zombit a radeon topickban. ;] ;] ;] ;]

    [ Szerkesztve ]

  • janos666

    nagyúr

    válasz keIdor #614 üzenetére

    Voltak pillanatnyi megingásaim, de maradt még bennem az nv-fan virtusból. Pl tavaj nyáron vérbeborult a szemem, és vettem egy 4870 512Mb-ot. Meg is bántam fél év után. Illetve most elhasználtam a maradék odaszorult vértöbbletet, vettem egy 4870x2-t, de ez feladta a leckét, hogy többet ne legyen ilyen. Most is viszket a tenyerem, hogy vagy vizesblokkos GTX-275 szarráfeszelve, vagy GXT-295 (utóbbi csak a hecc kedvéért, attól tényleg meg kéne szabadulni 1-2 hónapon belül, szinte kezdhetném is hirdetni mire hazahozom). :))

  • janos666

    nagyúr

    válasz schwartz #630 üzenetére

    Esküdni mernék, hogy ezt már hallottam valahol. Szinte szó szerint így. Azt is te írtad, vagy ennyire nevezetes a dolog? (Amúgy én csak annyiból ismerem a játékot, hogy rajtavan a Geforce Physx listán, azokután nem szabadna szarul mennie.)

  • janos666

    nagyúr

    válasz Abu85 #633 üzenetére

    Igen, tudom, de a Gothic3 fehérebb betűkkel. és ilyen logóval van ott: . Mondjuk ettől lehet hogy mégsem használ hardware-t, de akkor azt mond egyértelműbben.

    [ Szerkesztve ]

  • janos666

    nagyúr

    válasz Abu85 #636 üzenetére

    Akkor miért van fehéren szedve a Gothic 3? Mondjuk most, hogy linkeltem, láttam, hogy az a logó twimtbp logó.
    Amúgy kösz a listát, akkor már az is világos, miért nem láttam semmit az Infernal-ban, míg 5 percet lövettem magam. :DDD

  • janos666

    nagyúr

    válasz Abu85 #639 üzenetére

    Én már rájöttem, a meant to be played logós játékok vannak kifehérítve. :DDD
    Szerintem 5 percig se fogok vele játszani, ezért most csak letöltöm, és megnézem milyen, de kösz a tippet.

    [ Szerkesztve ]

  • janos666

    nagyúr

    válasz Iron Funeral #974 üzenetére

    Így a korábbi hsz-eidhez:

    FarCry-nál messze nem kellett G80 a HDR+AA kombóhoz, Gef6-al is ment. Én úgy emlékszem, hivatalosan a Gef7 megjelenésekor villantották meg a HDR+AA dolgot, de gyakorlatilag a Gef6-osak is tudták friss driverrel (mert nem sokat változott a GPU felépítése, és tudásra is SM3.0-ás mindkettő, én végignéztem az összes Gef7 techdemót Gef6-on, miután eszközöltem egy friss drivert, ami akkor hivatalosan nem ment még rá a Gef6-okra, csak 7-es beta volt). A Radeonokon viszont nem tudom mikortól vált elérhetővé a dolog, mert ugye x1yyy-tól volt csak SM3, ami alap, a HDR+AA együtt jó kérdés, lehet hogy kezdettől fogva? Ugyan ez érvényes amúgy UT3 motorra is, ahol a forceware driver összeütyköd valami félmegoldást, hogy legyen AA a deferrend rendering mellett is. Állítólag a Catalystnál is működni kéne ilyesminek, ha CCC-ből erőltetsz AA-t UT3 motorra, de előbbit én is láttam üzemelni (egész jól), utóbbit még soha (illetve esetleg benyelte az FPS-t, de tényleg semmit nem simított).

    pl. a Source motorból kihozzák a technológiai maximumot - Kukkants bele a Cinematic mod 9.5-be, vagy 10b1-be. Na, ennyit tud a source2007, és ehhez bekajál egy akkora gépet, mint a Crysis Hyghon. Mikor szórakoztam, volt egy jelenet, ahol kivágott valami üzivel, amire a készítő azt mondta "nem elég 1Gb VRAM 1920-hoz", visszavettem a félbontásból, és továbbment. :DDD
    Az számomra most rejtéj, hogy ha lesz EP3, illetve ha az nem, akkor valami citromsárga box a Portal2-vel és Left4Dead2-vel, az alá mit tesznek, mert nem úgy néz ki, mint ha a csodamoduláris sorurce annyira vágyna most a DX10 kódra, akkor megvillantották volna már vagy az orangeboxnál, de legalább most az L4D-nél, újatírni meg nemigen fognak, míg ezzel is lehet pénzt csinálni.
    Persze jó az a source, de már nem egy technikai csoda. Megjelenéskor fasza volt, de akkor sem volt már olyan hanyattvágós, mint a Cryengine 1,2 (csak a játék volt 1000x jobb, amivel debütált). Jobb példa akkor a Cryengine 2, 95%-ban DX9, és egész sokmindent tud, amit a source2007 nem.

    Hmm. Tetszik ez a tegra2-ből kilegózott GPU. :B
    Ha emulálnak, akkor később friss driverrel még az sem lehetetlen, akkor a következő DX verziót (pl. megint egy ilyen sunyi 11.1, vagy 11.0b) is ismerheti majd, és ehhez hasonló előnyei lehetnek. Ha nyers erő meglesz hozzá, akkor jó lesz az. Hihetőbb, mint hogy kiadnak egy sokadik G80-at, mert ez a vázolt tegramagos elképzelés ugye GPGPU fronton is jól jöhetne.

    [ Szerkesztve ]

  • janos666

    nagyúr

    válasz GuB3Ra #976 üzenetére

    Elvileg így van:

    "Two key hardware features present in GeForce 6 and GeForce 7 GPUs that accelerate and enable great HDR effects include FP16 texture filtering and FP16 frame-buffer blending. There are many ways to accomplish AA and HDR simultaneously in applications. Some games like Half Life 2 Lost Coast use an integer-based HDR technique, and in such games, the GeForce 6 and GeForce 7 chips can render HDR with MSAA simultaneously using that method. The GeForce 6 and GeForce 7 series GPUs do not support simultaneous multisampled AA (MSAA) and FP16 blending in hardware (the method used in 3dMark 2006).

    Viszont nekem úgy rémlik, hogy FarCry alatt is volt HDR+AA Gef6-tal is, csak újabb driver kellett hozzá. De ott van a Gef7 techdemó, amivel sokat szórakoztam Gef6-al, mert kimondottan tetszett, abban tuti ment egyszerre, igaz az OpenGL, de SM3-as kártyán. Az Oblivionhoz is volt erre külön driverprofil.

    Szóval elvileg nem ment, de gyakorlatilag mégis megbütykölték driverből, ahogy a deferrend rendering + AA téma is egész jól megy Geforceokon (már amennyire mehet, és pl. radeonokhoz képest).

    [ Szerkesztve ]

  • janos666

    nagyúr

    válasz tzsolesz #985 üzenetére

    Ha 3x akkora terültet foglal el ugyan azon a korongon, attól még csak 3x-osára nő a statisztikai selejt arány. Ha összevetjük azzal a feltevéssel, hogy 2db kis GPU lesz az egy nagy ellenfele, akkor ez feleződik, és az nv máris csak 1,5x-es hibatényezővel viseltetik AMD-hez képest (na persze csak a csúcskártyákon, mert mindkettőből lehet herélt chipes kártyát csinálni, de attól nem lesz olcsóbb, mint az egychipes a kétcsipeshez képest). És ez a 1,5x-es szorzó nem áll lineáris kapcsolatban a költségekkel, elvileg ettől kisebbnek kéne lennie, hacsak nem állnak hasonló számban a selejt, és hibátlan GPU-k.

  • janos666

    nagyúr

    válasz Med1on #996 üzenetére

    Furcsa, kicsit olyan ez, mint ha Gef6 időszakban mostanra 512 pixel, és 128 vertex futószalagot jósoltak volna elő. Ha le akarnak nyűgözni, valami ahhoz hasonló újítást ígérjenek 2015-re, mint a G80 volt. :))

    [ Szerkesztve ]

  • janos666

    nagyúr

    válasz lenox #1026 üzenetére

    Erre a kérdésre nekem az ugrott be, hogy használhatja a CPU-nak szánt rendszermemóriát is (olcsó procik esetére), esetleg hagynak külön foglalatokat a GPU memória számára, vagy inkább a PCI-E slotba lehet majd RAM chipekkel tele aggatott kártyát tenni (igény szerint, ha nem elégszel meg az osztott memóriával) , ha már úgy is a CPU-ba kerül a PCI-E vezérlő is. Bár ez elég nyakatekert dolog, mert miért ne lehetne szerencsétlen GPU is a bővítő kártyán, ahelyett, hogy a CPU magok mellé zsúfolják, aztán hűtsed léggel. Számomra is hihetetlen, hogy ez ne nyírná ki a grafika fejlődését. Highend-hez úgy is bővítő kártya kell, az Nv pedig mostanában csak azt csinált (9600GT óta). Software render-hez meg már eleve nem kell a GPU mag se, csak 2-3 sok magos CPU az alaplapra, de akkor a Larabee is öngól lenne. Vagy külön alaplapi foglalatba pakolgatjuk azokat is, nem a PCI-E-be, mint egy VGA-t? Larabee szerűséget is tud csinálni az nv is, ha bővítő kártya is lehet. Á, valami sántít még itt a jóspropaganda ködös homálya mögött...

    [ Szerkesztve ]

  • janos666

    nagyúr

    válasz Bici #1045 üzenetére

    Ma is megy még a DirectX 6 is Windows 7 alól is, ezen a visszafelé kompatibilitáson azt értik, hogy nem kell külön renderpatch-et írni, a 11.0 lefut 10.1-es kártyán is. Már persze az a része, ami le tud, de nem kell előre elkészíteni a 10.1-et, mint a 10.0-át, vagy 9.0-át, ha azt akarják, hogy 11.0-ástól kissebb tudású kártyán is elinduljon a program.

    9.5-nek a WDDM 1.0 alól futó 9.0c-t becézték, még a Vista megjelenése előtt, mert azt ígértek, ez is gyorsul majd XP-hez képest. Aztán persze a driver gondok ezt lényelték.

    [ Szerkesztve ]

  • janos666

    nagyúr

    válasz Bici #1048 üzenetére

    A 9.5 beugrott, bele is szerkesztettem az előzőbe.
    Amúgy persze, minden kisebb verzió lefut a magasabb tudású kártyán.
    Szerintem az MS nem adna 10.0 matricát, ha nem tudna mindent, és a 10.0 DDI-os driverre se WHQL lógot.

  • janos666

    nagyúr

    válasz Bici #1050 üzenetére

    Az, hogy menjen a propaganda, hogy a GT200 is csak egy átcimkézett G80, ami pedig az NV30 (FX 5800) reinkarnációja, így bár ráhazudják a DX 10.0-át, még a 9.0 teljeskörű támogatására sem vehetünk mérget (még akkor se, ha a Gef 6800 megelőzte a Radeon x800-at SM3.0-ával), miközben a Radeonoknál már 9800Pro óta minden egyes chip egy-egy új evolúció, ahogy már az R600 is úgy készült, hogy csak egy lépésre volt a DX 13.6-tól, és az új GPU-knál játszi könnyedséggel megoldható az új API-k támogatása, így még előremutatóbb, jövőbe vezetőbb technikákat tesztelhetnek rajtuk élesben (mint ahogy a tesszelátor is ott csücsül a magban R600 óta).
    :)) :)) :)) :)) :))
    Annak idelyén sokkal előbb készült el a G80, így az volt a DX 10.0 certification standard. Bármi is akart lenni a DX 10.0, bármi is lett végül, a lényeg, hogy amit a G80 is tud, az a DX 10.0, a GT-200 ettől még többre képes, mert egyes pontjaiban DX 10.1 képes lenne (CUDA-n át tud deferrend rendering alatt élsimítást, mint a 10.1-es radeonok, a Stormrise is használja), csak szándékosan nem támogatták az API-t. (Az már más kérdés, hogy maradéktalanul eleget tudtak-e volna neki, ha akarnak, ha nem.)

    [ Szerkesztve ]

  • janos666

    nagyúr

    válasz TESCO-Zsömle #1065 üzenetére

    Azt azért ne felejts el, hogy ez az Adrien még csak G80 techdemo, nem is GT-200, de főleg nem GT-300. Ahhoz képest nem olyan rossz az.

  • janos666

    nagyúr

    válasz cszn #1094 üzenetére

    Ha a Larabee jó lesz az akkori játékpiacra is, akkor egy ilyen, ma csak ködös jóslatokban létező, tegra-szerű magokból összerakott, sokmagos GPGPU is jó lesz, sőt, akkor az AMD lesz bajban az R600 alapokkal.
    Persze, itt az nv lesz bajban, ha CUDA kéne ahhoz, hogy meghajtsa a chipet, de az Intel sem áll a CUDA mögé, és nem is ad az nv-nek licenset olyan utasításkészletekhez, vagy olyan kompatibilis programozási keretrendszerhez, amit a Larabee-nél a játékipar használna.

    Pedig nagyon érdekes lenne, ha eltűnne a DirectX, és akár CUDA (vagy más hasonló) alól mindenki írhatna GPGPU-s software-t, beleértve komplett játékmotort, vagy 2D/3D tervező, szerkesztő programokat.
    Ehhez kidobhatnának a GPU-ból egy adag felesleges cuccot, és még jobban felfuthatna a nyers számítási teljesítmény. A játékok pedig gyorsítókártyát bevonva renderelnének, azzal számítanák a fizikát, az AI-t, stb. Még a renderelés is javulhatna (nem lennének ilyen hülyeségek, mint hogy nincs AA), ha megszűnnének a DirectX, mint szabványos zárt rendszer korlátai, és főleg a fizika és AI terén nagyságrendi javulások szemtanúi lehetnénk pár generáció alatt.

    De még több fantáziát látnék a CAD programokban. Már realtime is egész élethű minőségben renderelhetné a szoftver a tervezés alatt álló, félkész művet, mert például a szilárdástni és dinamikai számítások is nagyságrendileg gyorsabban futnának le a GPGPU-n, ami ebből rögtön renderel is képet. (persze nem a végleges terv nagy pontosságú hálójával számolva, de a véges elem modelleknél is jól skálázható a felbontás az előnézethez, csak kéne az erős processzor).
    Vagy ott vannak az áramlástani modellek, azok is bezabálnák a világ CPU-it, ha tényleg a szinte-valóságot akarnád lemodellezni, mondjuk egy Duna méretű folyóra, ilyen helyeken is odatehtnék magukat a GPGPU-k, azzal az extrával, hogy ugye rögtön animálhatják is az eredményeket, ha kell, tehát érzékletesebb a visszajelzés a tervező felé. (Persze, hogy ő számokból is ért, de a politikus, vagy pénzember nem, és neki is meg kell mutogatni, hogy adjanak rá pénzt is, meg úgy egyébként sem árt, ha minél emberközelibb a felhasználó felület)

    De ami itt még érdekes, hogy ha kilőjük a képből a DirectX-et, hirtelen megnyílik az út a Linux felé is, ha addigra tényleg lesz windows kompatibilis kernel, már csak egy driver kéne, még akkor is jól futhatnának ezek a 3D-s programok, ha nem is portolnák őket linuxra, vagy csak minimálisan igazítanának rajtuk.

    [ Szerkesztve ]

  • janos666

    nagyúr

    válasz hugo chávez #1096 üzenetére

    Tudom, de épp arról beszélek, hogy milyen lehetőségeket rejt magában, ha ez átszivárogna az otthoni szórakoztatóelektronikába is, mint például a játékok, és persze a tendenciának megfelelően kibővülne a tervezőprogramok köre is.

    [ Szerkesztve ]

  • janos666

    nagyúr

    válasz hugo chávez #1098 üzenetére

    Na igen, ha OpenCL mellett a grafikáért továbbra is az OpenGL felel, az lehet visszatartó tényező.
    Már nem mintha szar lenne, de már a Windows-os CAD programok is átálltak DirectX-re, és erős kiritikákkal illették mostanság a 3.x-eket, szóval az OpenGL erős negatív múlttal indulna újbóli hódító útjára.
    És akkor ez még mindig nem ugyan az, mint mikor teljesen egyedi enginet (saját software rendererrel) írnak GPGPU-ra.

    Erre szerintem a múltból kiindulva az OpenCL kevés lesz, a CUDA mögött lett volna elég nyomóerő, ha még vagy az AMD vagy inkább az Intel beáll az nv mellé.
    Szép, meg jó a nyílt szabvány dolog, de tessék, OpenGL és DirectX esete, vagy akár Linux és Windows. Kell mögé egy cég, aki lenyomja azok torkán is, akik nem kérnének belőle. Ez így magában teljesen illogikusnak tűnik, de az élet még is ezt igazolja.

    Joggal mondják azt is, hogy ha elterjedne a CUDA, akkor utánna az nv mindenkit úgy szopatna vele, ahogy épp nem szégyenli, de szerintem ez nagyon erős túlzás. Ha keresztbetenne például az Intelnek, az keresztbe le tudná nyelni az egész nvidiát, bőven lenne mivel zsarolni őket, hogy semmi turpisság ne legyen a CUDA verziók kiadásában, és a hardwares támogatottság terén.
    AMD barátság esetén pedig az lenne a zsarolási alap, hogy otthagyják a CUDA-t, és akkor megint csak keresztbe nyeli le az nv-t az Intel és az AMD együtt.

    És a CUDA már kész, működik, szép és jó, aki használja, az szereti. Az OpenCL még csak szép ígéret, amiről alaptalan is túl szép jövőt feltételezni az OpenGL múltját ismerve.

    [ Szerkesztve ]

  • janos666

    nagyúr

    válasz tlac #1102 üzenetére

    Őszintén szólva, én meredeken elzárkózok mindentől, amin kukacharapta alma lóg. :P
    Drága divattermék, amit azért szeretünk, mert drága, és mert divattermék, nameg persze, kell nekem is egy ilyen egyedi elittermék, mert mindenkinek az van. :W

    [ Szerkesztve ]

  • janos666

    nagyúr

    válasz leviske #1106 üzenetére

    OpenGL - Open Grapchic Layer - Nyílt Grafilkus réteg (nyelv/felület)
    OpenCL - Open Computing Layer - Nyílt Programozási réteg (nyelv/felület)
    OpenAL - Open Audio Layer - Nyílt Audio (programozási) réteg
    ComputeShader - MS által birtokolt, zárt DirecX-en belüli programozási réteg, vagy inkább itt a nyelv szót használnám, mert maga a HAL (hardware acceleration layer) az a DX (és WDDM) marad.
    (Nem tudom, a layer ki mikor hogy szereti fordítani.)

    Ezek mind arra jók, hogy egy program hozzáférjen a hardware-hez, és számoltassa. Ezen belül már befogható az x86_64-es CPU, ARM proci, GPGPU, vagy ami tetszik (persze, ha maga a rendszer ismeri, és támogatja, és/vagy a hardware tuja azt, amit elvárnak tőle adott feladathoz).
    A CPU-t az OS-en át is el lehet érni, de az ilyen-olyan bővítőkártyán ücsörgő chipeket nem, azokhoz kell egy külön HAL, (példának tettem be az OpenAL-t, ahol egy hangkártyán ülő EMU vagy X-fi chip is dolgozik a CPU helyett, számolja a 3D-as hanzást) és valami olyan programozási nyelvet támogató rendszer, amit ismer a célhardware (köztes fordítók, stb, az már nem tudom mi hogy mennyire oldható meg, de pldául nyilvánvaló, hogy egy X-fi nem fog neked fizikát és AI-t számolni a játékhoz, pedig elméletben akár besegíthetne fél FPS-t, mikor nincsenek hangefektek, csakhát, na... :DDD)

    Az szinte biztos, hogy DX11-el senki sem fog Compute Shaderre software renderert írni, hisz egyszerűbbnek tűnik ShaderModell 5-el dolgozni, azért is van, de ekkor már bennragadtunk a Windowsban.

    Az OpenCL még messze van, a CUDA már ma itt lehetne az otthonunkban, ha pl az ATI-t nem felvásárolják, hanem tönkremegy. Most lehet, hogy még mindíg G92-esekkel ücsörögnénk, és várnánk a GT200-at, nem azt mondom, hogy ilyen vonatkozásokban is jó lenne a monopólium, csak azt akartam szemléltetni, hogy elég sok idő telt el G80 óta, és a CUDA elég jó ahhoz, hogy monopol pozícióban lenyomja a fejlesztők torkán az nv. Ma lennének mondjuk többségben DX9-es és mai DX10(.1) mennyiségben CUDA-s játékok. Később (illetve ebben az alternatív jövőben akár minél korábban) pedig beállhatna az Intel (de akár az AMD is ATI nélkül), és újra lenne verseny a hardwarek terén is...

    Az a baj, hogy ha hihetünk a meséknek, akkor az AMD és az Intel minél hamarabb ki akarja nyírni a GPU-kat.
    Tehát előbb utóbb mindenképp visszatér a software rendering, csak épp szebb, és izgalmasabb lett volna, ha mondjuk már most, a GPGPU-k idején visszaáll, és továbbra is használunk hardware-es gyorsítókat, nem lenne űr a kettő közt, hogy most még GPU, aztán csak CPU, de mikor áll át, mi legyen addig a gépben...?

    Mire befutna az OpenCL ilyen szinte, mint ahol a CUDA már ma lehetne, addigra nem is lesz rá szükség.

    Persze, szállingózhatnak felhasználói programok OpenCL-el, GPGPU gyorsítással, de közel sem olyan szinten, mint ha már az utóbbi 1-2 évben dobták volna a DirectX-et, mint a szórakoztató és akár professzionális programok megjelenítési felületét, elterjedtebbé vált volna valami olyasmi, mint a CUDA (egy korábban megkezdett OpenCL is lehetett volna), és egységesebbé vált volna a GPGPU gyorsítók alkalmazása.

    A DirectX-el meg ugye az az érdekes, hogy nélküle majdnem egyenrangúvá válhatna a Linux is az otthoni szórakoztatóelektronika területén. Továbbá ugye ha nehezebb is lenne mondjuk CUDA alatti software renderert írni, mint ShaderModellest, de ezek jobbak is lehetnének. Sokan úgy is inkább licenselnek egy kész enginet, és legfeljebb a végletekig átszabják, mire játék lesz belőle, nem maguk írnak egyet az alapoktól. És ez nem is gond, lenne 3-4 engine, amit licenselnek a kisebb studiók, és esetleg marcangolnak még a kódon (nem lenne az nagy változás).

    Na meg, hát CUDA általi világuralom... Persze.
    Te például tudom, hogy unásig ismered már az anekdótáimat arról, hogy Geforce FX óta minden szar a levesben, az MS kavarása a DirectX-ekkel.
    A CUDA zárt, de a DirectX is, és igaz, hogy függetlenebb, mert az MS nem gyárt GPU-kat, vagy CPU-kat. DE! Az MS-t senki sem tudja megszorongatni, még mondjuk egy Intel se nagyon, és egyéb piaci érdekek, távlati tervek miatt nagyon is lehet elfogult egyes VGA gyártókkal szemben (kedvenc példám okán, a "ki mennyiért is csinál nekem chipet az Xboxhoz? Na, ki akar beszélni? Megbaszlad a DX hátán!" :DDD).
    Ellenben egy nVidia-t igen is meg tudna szorongatni egy Intel, ha mahinálna a CUDA-val...

    Kezd kirajzolódni valami kép, ami ugyan zöld árnyak közt lebeg, de nem is olyan fájdalmas, mint a vörös vérontás? :))

    Ezek mind az én laikus meglátásaim, ne tessék teljes mértékben tényként kezelni.

    [ Szerkesztve ]

  • janos666

    nagyúr

    válasz Abu85 #1112 üzenetére

    De jót fogok röhögni, ha monduk MM-30 (Magic Mushroom) néven adják ki, és akkor se nem Fermi, se nem GT-300. Mit kell ezen folyton lovagolni?
    GT-300 = A nextgen nv chip azon neve, amiről a legtöbbek ismerik, és továbbvitele megkönnyíti a szélesebb körű konzisztens értelmezést (elég közel van már, hogy ne vigyék be a köztudatba, hogy Fermi lesz a neve, de ugyan erről regéltünk már fél éve más néven...)

    [ Szerkesztve ]

  • janos666

    nagyúr

    válasz VinoRosso #1126 üzenetére

    Vagy inkább neked nincs. :P
    Ha a driver inf-jében írod át a terméknevet, akkor max a windows eszközkezelő fogja 9800GTX-nek kiírni (vagy akár lehet a neve "ViniRosso csúcs-VGA-ja" is...), de a driver control panele már a helyes elnevezést dobja majd.
    Ha átírod a DeviceID-t a BIOS-ban, akkor van esélyed átverni a drivert, de egy diagnosztikai program szerintem még úgy is meg tudja mondani a chip tipusát, mert ugye a GPU-Z még talán a DeviceID-ből következtet (mint a driver is) mindent az előre letárolt adatokból, de az még csak a termékre vonatkozó séma. A BIOS-ban sem tudsz mindent olyan egyszerűen átírni (hex aditorral se), hisz G80-as VGA-hoz csak más G80-as VGA-k BIOS-a passzol (sőt, még az sem mindíg csereszavatos), a G92-eské nem, tehát megállapítható marad, hogy az mégis milyen chipes cucc. (persze 90%, hogy nem kering ma a neten olyan program, ami ezt megteszi, mert minek is lenne, de visszahámozható még az szoftveresen is).

  • janos666

    nagyúr

    válasz Bici #1130 üzenetére

    Én már saját magam is csináltam olyat, hogy az INF-ben neveztem át a kártyát, és olyat is, hogy a BIOS-ban írtam át a DeviceID-t.
    Előbbi semmire sem jó, csak a Windows eszközkezelőben megjelenő terméknév lesz egyedi.
    Utóbbi átver mindent, még a drivert is, és a GPU-Z-t is. Ezt nem tagadtam.
    Csak azt mondtam, hogy még ha át is írjuk a DeviceID-t (ha nem BIOS-ban, akkor grub-bal, vagy RivaTuner-rel a memóriában bootoláskor, vagy bárhogy...), akkor is felisjmerhető marad(na) chip, mert attól még az egy G80-as BIOS marad, ha G92-es terméknek tünteti fel. Azt is mondtam, hogy ezt persze egyetlen neten lévő program sem fogja így levadászni. Főleg nem a GPU-Z.

    Szóval, Abu is tévedett, és Te is, csak neked címeztem, mert neked volt nagyobb a.... :))

    De nézzük tovább. Csökkentett módban a GPU-Z drivere az, ami nem tud betöltődni! (Ez kéri le a VGA BIOS-t, amiben a DevoceID-t keresi.)
    Ha beraksz Vista alatt egy 10 éves PCI-os VGA-t, amihez foltokban sincs 64-bites Vista driver, még XP-s se, csak max NT-re, és csak "Standard Graphich Adapter" lesz a Vista számára, a GPU-Z akkor is szépen ki tudja írkálni hogy pl. S3 Virge 4800, megmondja hogy 2Mb RAM van rajta, hány bites, stb.

    [ Szerkesztve ]

  • janos666

    nagyúr

    válasz tlac #1132 üzenetére

    Konkrétan nem tudom grubbal hogy, csak azok alapján, hogy elég sokmindent át lehet vele írni, ami BIOS-ból olvasatik be, így 90%-ra sejtem, hogy ezt is át lehet (valahogy). :(((

  • janos666

    nagyúr

    válasz tlac #1134 üzenetére

    Én is a Vista/Win7 loaderből indultam ki, mert az is az alaplapi BIOS lekérdezésbe szól bele, és úgy láttatja, mint ha benne lenne az OEM Vista/Win7 kulcs.
    És korábban láttam már más hasonló trükköket grubbal, azt hiszem te is foglalkoztál ezzel egy időben x48-SLI kapcsán. Szerintem a lehetőségei ilyen téren majdnem "határtalanok", csak esetleg még a profi hackerek sem jönnek rá mindenre, és amúgy is van, amit egyszerűbb mással megoldani.

    [ Szerkesztve ]

  • janos666

    nagyúr

    válasz Bici #1136 üzenetére

    Mindegy, mert te is épp erről a témáról beszéltél, de igen, inkább neki.

    tlac - Ja, az úgy már valóban más, ha a grub csak programot indít, de belefér a felsorolásszintű listába, mint "grubbal, stb.", mert ahhoz köthető, még ha azon túl kell hozzá más is, vagy mással is el lehetne indítani azt a programot, csak ezzel szokás...
    Ha úgy vesszük, akkor a RivaTuner sem képes túl sokra, csak a plugin-jai, és a drivere...

    [ Szerkesztve ]

  • janos666

    nagyúr

    válasz VinoRosso #1139 üzenetére

    Hmm. Ez így érdekes. Mondjuk én is lusta vagyok átírni a z inf-et, és a laptopomra így telepítem fel a desktop VGA-khoz szánt forceware-t, hogy kiválasztom a nem mobil 8600GT-t. De azt még nem figyeltem, hogy ekkor a GPU-Z is bedől már ennek is. Sőt, azt viszont tudom, hogy később az nvidia control panel már rendesen fogja kiírni a kártya nevét ilyen esetben is. (A 3DMark féle system analysis megint más, de a RivaTuner is ki tudja neked hámozni a VGA BIOS-ból az adatokat, akármilyen driverrel, vagy driver nélkül.)

    Ez is érdekes, hogy elsőre átverődik a GPU-Z, mert ha nem telepítesz fel hozzá semmi drivert, csak az alap Vista/Win7 onbox "Standard Graphic Adapter"-ként jelenik meg az eszközkezelőben, akkor is fel szokta ismerni a GPU-Z (persze nem az órajeleket, de a chip tipusát, és a kártya nevét igen, mint imént mondtam, olyan kártyáit is felismer, amihez nem is létezik az OS-hez telepíthető driver ->ősrégi S3 VGA, amihez esélytelen bármi 64-bites OS-re szánt driver...).

    [ Szerkesztve ]

  • janos666

    nagyúr

    válasz Bj Brooklyn #1149 üzenetére

    AMD-nél van 3 dátum, és igazából senki sem tudja pontosan ki mikor mit fog tudni (csak újságírók, vagy már a nyilvánosság, bejelentés, tesztek, árusítás, stb...)
    nVidia esetében igazából csak annyit tudunk, hogy páran azt állítják lesz valami 10.-én, ha már az AMD-nél is lesz valami, de ezt nem ők mondták, sőt tagadták (persze attól még lehet igaz). :DDD
    De itt 10.-én, vagy akár 23.-án is csak demózás lehet, vagyis talán lehet fényképezgetni az ES kártyákat (bár nem valószinű, ha még nem végleges a kinézet), és talán indítanak rajtuk techdemókat (ha még az órajel sem végleges, akkor valószínűleg más kártyákkal összevethető benchmark nem nagyon lesz), de boltokba még nemigen kerül egy jó darabig.

    [ Szerkesztve ]

  • janos666

    nagyúr

    válasz Bici #1178 üzenetére

    Nekem ez nem mond semmit. A próbagyártás arra való, hogy élesben bukjanak ki a hibák, amik a tervasztalon elkerülték a mérnökök figyelmét. Akár olyan is lehetne még most, hogy egy sem jó, lehet hogy egy ember 2 perc alatt kijavítja azt a farkashibát, és 0-ból 20% lesz, még 1 hét munka több emberrel az apróbb rejtett bakikon, és 40...

  • janos666

    nagyúr

    válasz ashot #1180 üzenetére

    Elég hangzatos szavakkal ér véget a cikk utolsó előtti bekezdése. Jó lenne, ha még azelőtt demóznának egy ES kártyát, mielőtt kapható lesz az 5870.

  • janos666

    nagyúr

    válasz Bici #1187 üzenetére

    Nem rémlik, de a Geforceokban átlagosan sokkal több tuning szokott maradni, mint a radeonokban. Rv770~5-8%, G80~15-20%, G92~20-25%+
    Szerintem az Rv870-et is addig tolták a 70-esen, ameddig csak lehetett, sokkal tovább pedig nem szoktak menni az ES chipek se, inkább a retailok a fickósabbak manapság, nameg ha léggel hűtik, akkor nem lehet szénnéfeszelni se, és nem nem nagyon van miből leválogatni a legjobbakat, mert azok már eleve a legobbak, amik egyáltalán hibátlanul futnak valami elfogadható órajelen.

  • janos666

    nagyúr

    válasz Bici #1190 üzenetére

    A 90-est lehet, de a 70-est nem, ez csak a több, mint fél évnyi továbboptimalizálás eredménye, érdemesebb az Rv770-ből kiindulni az Rv870-hez, mint az Rv790-ből. (Bár 1Ghz-hez magasabb fesz kellett több OC-s 70-esnek is, mint a refeknek, csak bírta a 70-es hűtője, mert kevesebbet evett az új chip azonos feszen és órajelen)
    Szerintem ha már ilyen ráérősen csinálgatták a kártyákat, és ilyen magas a TDP, akkor igencsak a lehető legmagasabb értéket lőtték be a referenciához, ami nem bírta, az mehetett 5850-nek. Ugyan úgy ki lesz facsarva minden a 70-esen, mint tavaj nyáron.
    Ha pedig kemény kezdés lesz a GT300-nál a sok gyenge chip miatt, akkor ott várható a kevésbé kifacsart referenciaórajel (a nagyobb szórás miatt nagyobb biztonságot hagynak rá). És persze a tuningra nincs garancia, de ilyenkor jobb eséllyel maradnak bent a tuningos lapkák, főleg miután rendeződik a sorozatgyártás, de nem jön azonnal gyárilag emelt órajeles széria.

    [ Szerkesztve ]

  • janos666

    nagyúr

    válasz VinoRosso #1194 üzenetére

    Szerintem nem hazudnak, ha azt mondják, nem a DX11 adja el a kártyákat. Az hype lesz, hogy vegyél újat, mert az új játékok szarul futnak a régin. Az mindegy, hogy DirectX vagy AponX, netán PissiX, az a programozóknak szól, neked csak az FPS táblázatokat kell nézni, persze szelektálva, nehogy az elenyésző számú szélsőséges esetekből (Stormrise) vond le a konklúziódat. :DDD

  • janos666

    nagyúr

    válasz h.adam.92 #1196 üzenetére

    Hát ja, VGA terén nem kicsit vagy lemaradva. :DD
    Ha már eddig vártál, várd meg mindkét gyártó DX11-eseit, az ördög nem alszik. ;]
    (Bár úgy sejtem, ez most átmeneti pótkártya, mint nekem is az, ami épp van.)

    (#1197) VinoRosso - Hány átlagos pistike tudja, mikor VGA-t vesz, hogy neki milyen DirectX featurek kellenek? Ha azt mondják neki, netán látja ő maga tesztekben, hogy gyors, akkor kell neki, ha nem, nem. Szerintem nagyon kevesen vásárolnak VGA-t DX verzió szerint, és felük ugyan úgy meg is járja, mint akiről azt hitte, hogy rossz lóra tesz. (2900XT vs 8800GTS). Én is megbántam, hogy 4870-est vettem GTX260 helyett, már seholsem volt a 4870-ese, mire DX 10.1-et látatnék. (Épp Stormrise időszakban cseréltem 4870x2-re, de az hiba volt - bár nem azért, mert GTX295 kellett volna, dehogy, csak önmagában volt hiba...)

    [ Szerkesztve ]

  • janos666

    nagyúr

    válasz DeSanto #1463 üzenetére

    Lehet, hogy az ES nyákra hagytak helyet több fázisnak, és több kakaónak (csatinak), de végül kevesebbet eszik a chip, mint legrosszabb álmaikban várták, így nincs szükség a 6 pines tápcsatira, mert elég 1 darab 8 pines is? :U
    (És ha mind nem 6, de pár tüske van a 6-os mögött is...)

    [ Szerkesztve ]

  • janos666

    nagyúr

    válasz tzsolesz #1469 üzenetére

    Egy 8-ason átmegy annyi, mint két 6-oson, valamint nem biztos, hogy feltétlen ragaszkodnak most ezzel a hirtelenjében tákolt kártyával a szabványhoz, mert amúgy a táp többet is tud küldeni a 8 pinen át.

  • janos666

    nagyúr

    válasz Adiking #1519 üzenetére

    Még csak pletyka, hogy mit emulál, és mit nem. (De van, amit a Cypress is emulál, ez önmagában még nem hirtelen halál. Korábban is volt, hogy SM2.0-ból emulálták a korábbi API-t, és hasonlók...) Ha nyers erőben felülmúlja (pedig felül fogja), és hatékonyan tud DX11-et emulálni, akkor végeredményben legyűrheti a kisebb és hatékonyabb hardware-t is.
    Nagyobb lesz, drágább lesz (nem feltétlen nekünk, csak a gyártónak előállítani), de mire fut a játék, és nézed az FPS számlálós grafikonokat, lehet még többet is mutat a Ferminek (akár még DX11-ben is tesszelálás mellett, de a nagy átlag inkább mértékadó, mit kiszúrni 1 játékot, ahol szarul fut, ha 9 másikban jobban, vagy ugyan úgy...).
    Vagy nem, de én most bízom bennük, hogy alkottak valami nagyot (már úgy magukhoz mérten), és még ha nem is GPU-nak csinálták, de annak is elég jó lesz. (kár, hogy addig nem várok a VGA vásárlással, mire kijön)

    [ Szerkesztve ]

  • janos666

    nagyúr

    válasz zuchy #1522 üzenetére

    De azt sem várom, hogy most hirtelen a tesszelálás lesz a főlényeg, nem "Tesselator Unit"-ot veszünk, ez csak egy új feature a sok közül, a rengeteg régi mellé.
    Szép, meg jó, persze, de pl STALKER képeken annyit láttam, hogy nem szögletes, hanem hengeres a gázmaszk szűrőrésze. Csodás, csak épp a maszk gyártása során is egyszerűbb lett volna szögletes öntőformát tervezni, és jobban is passzol a környezetbe az ilyen elnagyolt gyártástechnológia. Továbbá Abu Cypresses cikkébe szúrt képen a szörnyike háta nekem első ránézésre úgy fest, hogy jobban tetszik a simább baloldali, mint a tesszelált jobboldali, jobban megnézve pedig mindegy, egyik ilyen, másik olyan, de se jobb, se rosszabb egyik se, csak más. :))
    Persze ez most csak poén, hogy a STALKER-ben többet árt, mint használ, hogy erőltetik, más játékban mutathat majd olyat, amire azt mondjuk: "na, ezért megérte új VGA-t venni", de nem vennék mérget erre sem, ahogy arra se, hogy ez a játék nem futna játszható sebességgel Fermin is (Stormrise-okból nem sok van).

    [ Szerkesztve ]

  • janos666

    nagyúr

    válasz Jack O'Neill #1533 üzenetére

    Hát, szerintem 512 * 3 fpo * 1700*10^3 1/s = 2611 fpo/s = 2,61 TLOPS, de ebből csak az 512 a biztos, az 1700 is lehet még kevesebb, mondjuk ~1300, és azt sem tudjuk, hogy CUDA magonként 3 FLOPS van-e itt is, mint GT200-nál, lehet hogy csak 2, mint G80-nál, és Cypressnél, vagy netán több is (bár azt nem mondja meg semmi varázsgömb, miként lenne több, mert nemigen lehet). Ha csak 2, akkor 1,74-re jön ki, ha pedig nem megy, csak mondjuk 1350Mhz-en, akkor 1,38 lesz. De ez nagyon elméleti teljesítmény, sok nem múlik rajta.

    [ Szerkesztve ]

  • janos666

    nagyúr

    válasz Bici #1536 üzenetére

    Az AMD TGPU-t (Tesselation and Graphic ...), az nv cGPU-t (Computing and Graphich Processor Unit) akar eladni. :))
    Az AMD szerint tesszelátor nélkül nincs grafika, olyannyira, hogy ezért kettényeséssel duplázzák a háromszögelést, és minél magasabbra erőltetik az órajelet. Az nv pedig inkább beleöl egy kazal tranzisztort is ha kell, de a minél nagyobb valós számítási teljesítményre hajt, így magasabb órajelen járatja az SP-ket, ha már lehet.

    [ Szerkesztve ]

  • janos666

    nagyúr

    válasz RI/OS #1560 üzenetére

    Szerintem azt a rejtegetést a DX11 demóra értik. Azt akarják meglepetésnek hagyni, hogy mit tud DX11 techdemók, de még inkább játékok alatt. Persze ez olyan, mint a "nem fogsz hinni a szemednek", lehet negatív, és pozitív meglepetés is. ;]

    and looks like a character from Terminator. - Ezt a poént pedig már itt is ellőtte valaki, de most már biztos, hogy egy 1000db Fermiből álló cucc lesz a Skynet, és CUDA-t fog tenni, nem népirtani. :))

    [ Szerkesztve ]

  • janos666

    nagyúr

    válasz Abu85 #1573 üzenetére

    Ha 7x lassabb, akkor az 512SP már 73 textúrázót kitesz. Kell ettől több DX11-hez? :DDD

    És egy hír:
    Nvidia Can Disable Certain Fermi Features on Gaming Graphics Cards

    Tömören, ami érdekes lehet: A DP teljesítményt 750 GFLOPS köré becsülik, és valami olyasmit akarnak kihámozni egy elejtett mondatból, hogy nem csak az SP-k számát akarják variálni az olcsóbb termékekre szánt GPU-kban, hanem egyes képességeket is letiltanának a Geforceokon a Teslakhoz képest , például lerontanák a DP teljesítményt (ez utóbbit nehéz elképzelni, miként kiviteleznék).
    Az eddigiekből nem úgy tűnik, de ígérik, hogy még 2009-ben ideér a kártya. :DDD
    (És már augusztusban is volt működő A1 reves chipjük, ezt demózták most is.)

    Lehet, hogy fele-negyed méretű cachevel, chip hibák miatt letiltott ECC-vel, és hasonló seljetes példányokkal jön csak chip a Geforce vonalra?
    Így akár nyereséges is lehetne a termékvonal, ha tényleg csak a hulladékot szórják ide ki, de elég lesz-e? Pl. az ECC igencsak mindegy, de a cahce mondjuk nem jönne jól egy grafikát csak emulálgató chipnek?

    [ Szerkesztve ]

  • janos666

    nagyúr

    válasz Abu85 #1581 üzenetére

    Jó kérdés, hogy a játékok mennyire aknázták ki eddig az egyes részegységek teljesítményét, és mennyire akarják a jövőben, valamint mennyire tudja majd kihajtani ezt az új chipet az új ütemezés és a driver emulálás közben. Ha eddig kárba veszett egy nagy adag TFLOPS, akkor nem feltétlenül lesz probléma az emulálás. Én adok neki esélyt, hogy régi játékokban még le is nyomja az RV870-et, de még DX11 játékokban sem lesz 7x lassabb, csak lemaradozik attól függően, AMD reklámos játék-e.

    Egyébként nekem olybá tűnik, mintha a Fermi majdnem akkora előrelépés lenne, mint a G80 volt akkoriban. Az más kérdés, hogy nem DirectX-re termett, de játékok alá is jó lehetne.

    (#1587) Bici - Szeretem az ilyen demókat. Azt tényleg mutatják, amit kell, csak épp lassan futnak, és nem is szépek. :DDD

    [ Szerkesztve ]

  • janos666

    nagyúr

    válasz Abu85 #1598 üzenetére

    Nyilvánvaló, hogy a jövő a Fermi felépítésében van, de ez nagyon távoli jövő.
    Ez most nagyon felesleges, de úgy a rend kedvéért had mondjam már el hozzá, hogy: Igen, ha az nv szalad előre a jövőbe, az hülyeség, ha az AMD, az mennyei bódogsokszög és technoorgazmus, és olyankor azt ajánlott venni, mert a jövőbe mutat, még ha az életciklusa alatt szar is lesz (R600, és talán Rv670 is), most viszont a Fermi a kukába való, mert túlzottan előreszaladt. :))

    Biztos azért, mert nem vagyok programozó, de nekem sokkal jobban tetszene, ha mindkét-három cég inkább fermiféléket csinálna, és dx11 helyett már inkább most elkezdtek volna cGPU-ra írni software render motorokat PC-n.

    Valamiért nekem úgy tűnik (és most nem csak zöld szemüveg...), hogy hosszabb távon nagy átlagban az nv által preferált vonallal jártunk volna jobban, egyféle mindenre jó, és fasza chipet mindenkinek, nem mindenféle kötött funkciós agyszüleményeket pakolni a GPU-kba, aztán csontig benyalni az MS-nek, hogy ugyan, tegye már be ugyan azt a mi kis álmunkat és GPU-feketelukunkat a következő DirectX-be. -> Gather4, Tesselator, stb, amit az AMD nyakalt ki, az MS meg lenyelte... -> Ha az nv GPU-t akarna, már akkor se tudná követni a DirectX-eket, mert az AMD találja ki, mikorra milyen directx kéne neki a megálmodott következő generációs chipje alá, az nv pedig csak majmolhatná mindhiába, és ez régen eldőlt már, kb az XBox360 tervezése során, még az FX-ek pályafutása alatt, azóta nem is csoda, ha az nv csak szidja a DX-et, mert látható volt mi lesz majd 2010 táján...
    És még micsoda plusz feelinget fest a téma alá, hogy ezt a vértes pingvin logós szakértő munkássága nyomán vetem billentyűzetre (hogy miket csinál a szeretett Microsoft... -> sohasem értettem hogy tudod egyszerre hypolni a DirectX-eket, és pingvines logóval nyomulni, nincs néha valami bad trip érzésed, és nem akarsz felocsúdni? :DDD)

    Bocs, hogy agymentem, de kezd ez a szappanopera kissé túl rapszodikus lenni. :DD

    [ Szerkesztve ]

  • janos666

    nagyúr

    válasz rocket #1625 üzenetére

    Tartotta a reményt? :DDD Én csak fikát látok lefolyóban, de lehet hogy csak én állok a folyó rossz oldalán a szennyvízbevezetéshez képest. :))

    [ Szerkesztve ]

  • janos666

    nagyúr

    válasz subaruwrc #1638 üzenetére

    Biztos, hogy Tesla, és nem Geforce vagy Quadro lehetett, hisz erősen lespóroltak mindenféle képkimenetet (én nem is keresném a DAC-t, nem is kell, mint ahogy kimenet se).
    Vélhetően valami építőtégla, hogy minél több GPU-t lehessen pakolni egy slotba (esetleg emulál valami monitor kimenetet a windows kedvért...)

Hozzászólok Aktív témák

Hirdetés