Új hozzászólás Aktív témák
-
Komplikato
veterán
Annak idején, mikor AMD megvette az ATI-t, több helyen is írt olyat a szaksajtó, hogy nem egy túl jó biznisz, mert a VGA nem olyan nagy biznisz, mint gondolnánk ... erre fel most meg AMD-t az ATI lártyáinak kéne megmentenie?
Nem hiszem. Nem is azért vették meg. Most már lesz egyben chipset, cpu, vga, vagy integrált megoldásuk, ha pedig valaki überbrutál számítási teljesítményt akar, van GPGPU is a tarsolyukban.
AMD-nek ha pénzt akar, akkor pöttyet fokoznia kéne a CPU fejlesztései sebességét, meg nekikezdhetne annak a kníai gyárnak a felépítéséhez."Figyelj arra, aki keresi az igazságot és őrizkedj attól, aki hirdeti: megtalálta." - (André Gide)
-
dezz
nagyúr
Gondolj arra is, hogy itt akár 6 különféle (5 math + 1 branch) művelet zajlódhat le, per blokk, per órajel(?). (A gyakorlatban ezt nehéz elérni, de ha áltagosan a felét kihozzák, akkor is 2x gyorsabb lesz a kód, mint G80-on.) Egy PS-es kódban is elfér az...
Szerintem az R600 volt az egyik fő oka, amiért megvették az ATI-t - az R600 első nyilvános bemutatója is a GPGPU-s felhasználásról szólt. Ez egy gyorsan fejlődő terület, hamarosan a számításigényesebb feladatok többségét GPU-k fogják végezni, és persze itt is próbálja az AMD beelőzni az Intelt, akik szintén kezdenek foglalkozni a kérdéssel, ha kicsit kényszeredetten is. Meg persze az Nvidia is nyomul.
R.Zoli: ''Ha jönne egy optimalizált folding mondjuk R600-ra az sok mindent elárulna szerintem...''
Tuti jön.
''Csak nem tudom ebben mennyi pénz van ha ilyen célokra nyomják el a GPU-t...''
Szerintem komoly business (lesz, ha jobban beindul). Lásd hányszoros áron adja az NV a Quadrokat, ill. korábban az ATI a FireGL-eket. És azokat még inkább csak 3D grafikára használták. Ennél még sokkal magasabb a $/FLOPS arány a mini és szuperszámítógépek világában.
[Szerkesztve] -
Abu85
HÁZIGAZDA
Szvsz ha kész lesz a K10, akkor jó ötletnek tartanám a HyperTranszport 3 buszon hozzákapcsolt R600-at. Ugye a HT3 brutalgyors, ami már előrevetitheti a CPU-GPU beolvasztás lehetőségeit. Nyilván az új technológiáknak idő kell, ha ezt meglépné az AMD akkor lehet, hogy egyelőre csak rétegpiacot nyerne, de beindulhatnának az ilyen irányú fejlesztések.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
rocket
nagyúr
Az AMD-nek nincsenek meg a megfelelo forrasai (anyagi, sw fejlesztoi), hogy ok diktaljak a jovobeni torteneseket, persze mindig akadnak kivetelek a sw fejlesztok oldalan, de erre epiteni nem lehet ilyen fajta innovacioval.
Mig az NV az ''elj a manak, arasd le a baberokat kesobb'' elvet koveti az AMD megakarja valtani a vilagot innovacioban, amivel a kesesek miatt lassan arra se marad penzuk, hogy a fejleszteseiket finanszirozzak.
Elmult 2 evben nagyon sokat haladtak grafikailag elore a jatekok, de jol lathatoan a fejlesztok se birjak ezt az iramot amit digtalnak nekik a gpu gyartok, ezert van az, hogy 10 jatekbol 2 van amiben nincsenek jatekelmenyt befolyasolo hibak, amiket a masik 8-ban talan egyszer kijavitanak (nagyon sokszor sose).
A masik meg amikor csili-vili highend hardvereken szurok nelkul alacsony felbontasban vannak jatekok amik 25 frame atlagot ernek el, ha ennyire jovobemutato (optimalizalatlan inkabb) a jatek engine akkor inkabb tartsak a sufniban amig lesz hardver hozza, de nem errol van szo sajnos hanem nincs penzuk/idejuk/kedvuk foglalkozni vele tovabb mert a hype amit elore kialakitanak korulotte majd ugyis eladja.
Voltak jatekok amiknek folyamatosan csusztattak a megjeleneset, de amikor megjelentek tenyleg az akkori idokhoz kepest innovativ megoldasokkal voltak tele grafikailag, es nem voltak bughalmazok se.
Ha akarnak meg valamit AMD-nel a highend gpuk vilagaban, atkell szervezniuk a vezetoseget a grafikus chipek reszlegenel, ezzel a mentalitassal a sirba viszik magukat, felkell hagyni az ertelmetlen kinek nagy a ...., akarmom mondani kinek kisebb a csikszelessege vadaszattal, olyan gpu-t kell tervezni amit meglehet valositani idoben az akkori technologiakkal (anno a g80 megjelenes elott nem gondoltam volna 681 millio tranzisztort 90nm-en leghutessel meglehet valositani megis sikerult).
Az ATi/AMD belelepett a kutyagumiba az elmult lassan 2 evben 2x is, 90nm es most 80nm kapcsan, pedig most nem highendnel kezdtek meg az atallast (rv560/570), igaz ez egy teljesen mas architektura.
Kiszolgaltott az AMD/NV gpu szintem mivel egyiknek sincs sajat gyara (vagyis az AMD-nek van de egyelore az meg messze van barmit is csinaljanak a sajat gyaraikban gpu fronton), TSMC 80nm high speed nodeja csunyan leszerepelt az r600-zal, vagy talan az architektura tul komplex a 80nm-hez, nehez megmondani (megtudni sose fogjuk), mindenestre mindig beugrik a legeleso r600 pletykak egyike ahol azt ecseteltek milyen nehez lesz 80nm-en megvalositani az r600-at, talan amikor elkezdtek tervezni nem 80nm-ben gondolkodtak, azt gondoltak mire eljutnak a gyakorlati megvalositashoz mar gyerekjatek lesz a 65nm.
Most megerdekesebb helyzetben vannak mert anno az r520 utan helyre allt a rend az r580 kapcsan de ott nem kellett csikszelesseget valtani, mig az r650 ha 65nm-en jon raadasul ez ujratervezest igenyel nem csak egy kicsinyitese a 80nm-nek. (par shader,tmu,rop elkelne, meg ha valoban a shader level AA a hibas ROP-ok miatt van akkor ezt is kikell javitani).
Az tisztan kiveheto a tortenesekbol, hogy az ATi az r600-zat sokkal magasabb orajelekre tervezte, amit nem sikerult megvalositaniuk a gyakorlatban.
R600 meg teljesen az ATi gyereke volt, remelhetoleg az AMD mernokeivel karoltve visszaternek a helyes utra.
Osszegezve, rendet kell rakni ha akarnak valamit meg a highend vga piacon az AMD-nel, akarnak egyatalan?"A lower resolution generally means that there can be more quality per pixel."
-
dezz
nagyúr
válasz Komplikato #251 üzenetére
''erre fel most meg AMD-t az ATI lártyáinak kéne megmentenie?''
Ezt így nem mondta senki (legalábbis rövid távon), de nyilván nem árt, ha az is hoz a konyhára.
''AMD-nek ha pénzt akar, akkor pöttyet fokoznia kéne a CPU fejlesztései sebességét''
Valószínű ennél jobban már nem is kokozhatná [szerk: akarom mondani fozozhatná - bár lehet, hogy kokóznak is ] - csak sajnos elég időigényes a dolog. De lényegében már kész van a köv. gen. (K10), most elvileg éppen indítják befelé a tömegtermelést.
Abu85: ''jó ötletnek tartanám a HyperTranszport 3 buszon hozzákapcsolt R600-at''
Hát igen, bizonyos feladatok nagyon igénylik a gyors adatcserét GPU és CPU között. Így valószínűleg pontosan ez lesz a következő lépés, még mielőtt a Fusion (egy lapkán CPU és GPU) megvalósul (45 v. 32 nm-en). Van is már hozzá platform: Torrenza (2 chipes, HT kapcsolatú rendszer, melyhez ipari szereplők számára megnyitották az AM2[+] foglalatot, és a HT3-at [illetve asszem ez eleve nyílt]). Bár ehhez le kell cserélni a PCIe interfészt az R600-on, és AM2 tokba tenni. Érdekes lesz.
rocket: ''Az AMD-nek nincsenek meg a megfelelo forrasai (anyagi, sw fejlesztoi), hogy ok diktaljak a jovobeni torteneseket''
Ezt mondták a 64-bittel (AMD64) kapcsolatban is, és láss csodát, az Intelnek kellett beadnia a derekát.
No de mindegy, a GPGPU dolog egy komoly IT trend, nem az AMD indította, de attól még meglovagolhatja.
[Szerkesztve] -
rocket
nagyúr
Ezt sokan irtak mar indokkent, hogy az r600 architekturaja ugy van kialalkitva GPGPU fronton megallja a helyet, viszont nem latom jelenleg ebben azt a hatalmas lehetoseget, tehat megint tulsagosan elore gondolkodtak.
"A lower resolution generally means that there can be more quality per pixel."
-
dezz
nagyúr
Azért már egy ideje van mozgolódás GPGPU fronton, lásd pl. gpgpu.org. És a piaci szereplők is kezdenek felfigyelni a jelentős teljesítményre, relatíve olcsón. Persze bomba üzlet valószínű nem idén lesz, talán még jövőre sem. De valamekkora nyereséget valószínű azért realizálni tudnak majd hamarabb is.
ps. közben látom, a #254-ben inkább a gaming területére gondoltál. -
dezz
nagyúr
Annak idején azért jelentős fegyvertény volt az Athlon 64 (32/)64-bitessége, még ha nem is igazán használták ki desktopon (Linuxosok azért jobban). Szerver és WS fronton már annál inkább számít, ha más nem, a nagyobb memóriaterület miatt. Más platformokon, mint Power és a többiek, már tudtommal kezdik el is felejteni a 32 bitet. Így szép is lenne, ha az x86-on nem lenne elérhető.
[Szerkesztve] -
rocket
nagyúr
Jol ertem amit irsz akkor az a trend az amdnel, hogy nem foglalkoznak mar annyira hardver szinten a gamer tarsadalommal, mert szerintuk mas szegmenesekben sokkal nagyobb igenyek vannak ezekre az innovaciokra?
Az amd ezzel azt jovendoli, hogy hamarosan a konzolok fogjak atvenni a jatek pck szerepet, amit latvan az elmult idoszakot nem butasag, de meg messze van ennek a lehetosegnek a nagyszazalekos megvalosulasa, addig is elniuk kene valamibol."A lower resolution generally means that there can be more quality per pixel."
-
R.Zoli
őstag
Azért az is sokat elmond ,hogy a PS3-nál a folding ha GPU-n megy akkor sokkal nagyobb a számítási teljesítmény mintha a Cell-en nyomnák Azért szerintem eléggé dúrva potenciál rejlik ezekben csak eddig nem volt teljesen olyan a GPU architekt amivel meg tudták volna ezt egyszerűen lovagolni... De szerintem az R600-ra ez nem igaz ,itt én nem látom ,hogy túl nehéz lenne egy optimális klienset kiadni hozzá egyszerűen...Legalábbis az X1800/1900-as szériát ha be tudták fogni foldingra pl. a kkor az R600 szerintem egyszerűbb lesz mert jobban fekszik a felépítésének a ''számolás''...
-
dezz
nagyúr
Ha így nézzük, akkor ez az NV-nél ugyanolyan trend, sőt, ők voltak az éllovasai; azt hiszem, a gpgpu.org-ot is elsősorban ők segítettek elindítani, ott van a CUDA projekt a G80-hoz kötődően, stb. Az ATI az R600-zal két legyet akart egy csapásra (és ez nagyjából sikerült is). De szerintem a legjobb úgy nézni, hogy ezek nagy IT/ipari trendek, amikhez ezek a cégek vagy alkalmazkodnak, vagy elbuknak.
Az meg egy másik trend, ami az AMD nélkül is megy a maga útján, hogy a gaming fokozatosan egyre jobban átvonul konzolokra, mert ott jobban érzi magát (kisebb a kalózkodás, jobban megtérülnek a befektetések, kiszámíthatóbb a jövő, legalábbis több éves távon).
R.Zoli: RSX-en egyelőre nem megy a folding, mert olyan kliens nincs - egyátalán, GF-es kliens sincs, mert szerintük ilyesmiben kevésbé jók. Ha lenne is, felemás ez a dolog: egyszerű feladatokban gyorsabb egy GPU, a nagy nyers erő által, de összetettebb feladatokkal csak a CPU-k bírkóznak meg. A Cell meg a kettő között van félúton: egyszerű feladatokban sokkal gyorsabb, mint egy CPU, de fele/harmada egy GPU-nak, viszont közepes bonyolultságú feladatokkal is elbír, viszonylag gyorsan.
[Szerkesztve] -
Etzel
aktív tag
lehet már egy kicsit későn írok, mert látom a Lost planet-et kiveséztétek, de lenne még 1 + kérdésem...
Hogy a francba tudták tesztelni a demot, 1280x1024es felbontés felett
nekem 1680x1050 menne, de vmi 1360x... enged csak
Kell neki vmi parancs, mint a BF2-nél?
Válaszokat előre is köszi -
R.Zoli
őstag
Én inkább úgy látom ,hogy ők valami olyat akarak létrehozni ami egyben egy ütős csomag és sokkal többre tudod használni mint játszadozás... azért ha belegondolsz az a 4x4 platform még mindig nem butaság akinek brutális teljesítmény kell... Namost ha mondjuk itt lesz a Barcelona és 2 db 4 magos proci + 4 darab R600-ast belepakolsz egy gépbe akkor lassan szuperszámítógépet építhetsz... Ezt most csak átvitt értelemben mondom, de a lényege az ,hogy egy olyan szegmenst tudnának ezzel megnyitni amire eddig nem volt lehetőség... Ergo asztali méretű gépek TFLOPS-os számítási teljesítménnyel... Azt hiszem nem véletlen az Intel ezirányú projektje sem a 80 magos procival...Ők is érzik ,hogy nagyon nagyot lehetne ugrani ebben....
-
dezz
nagyúr
A 2-3 hónappal ezelőtt bemutatott, 2db CF-be kötött OEM R600-as kártyát tartalmazó setup pont 1 TFLOPS-os volt.
Az a 80-magos Intel cucc egy dolog (inkább csak érdekesség egyelőre), viszont nemrég indítottak egy komolyabb GPU-tervezési projektet is, amihez alaposan kibővítették a GPU-tervező gárdájukat is. Persze nyilván nem csak a GPGPU-s alkalmazásra hajtanak (hanem az AMD-hez hasonlóan takarékosabb irodai és mobil platform létrehozására is, bár ehhez eddig is megvolt ott a know-how, ha szerényebb GPU-s képességekkel is), de a hírek szerint erre is. -
Szipi
aktív tag
Üdv.
Nem használsz véletlenül vmilyen képfrissítést felülbíráló progit vagy speckós monitor drivert? Nálam hiányoznak azok a felbontások amiket min 85Hz-re állítottam be módosított monitor driver-al. (Az NWN 2-nél is ugyanez volt, ott a gyári driverral ment rendesen minden felbontásban.) -
Raymond
félisten
Csak hogy kicsit visszatereljem a diskurat az ertelmetlensegbol:
''Azért az is sokat elmond ,hogy a PS3-nál a folding ha GPU-n megy akkor sokkal nagyobb a számítási teljesítmény mintha a Cell-en nyomnák''
Ez ugy hulyseg ahogy van. A PS3 folding kliens kizarolag a CELL-en futtatja a szamitasokat. A GPU csak a csicsa vizualizaciot csinalja amit egyebkent ki lehet kapcsolni. A masik dolog hogy a PS3-ban kb egy GF7800-nak megfelelo GPU van 8 ROP-al (a shader egyseg 24 ott is) amire nem tudnak folding@home klienst irni mert az architektura nem felel meg.
''De szerintem az R600-ra ez nem igaz ,itt én nem látom ,hogy túl nehéz lenne egy optimális klienset kiadni hozzá egyszerűen...''
Nem is az, nemsokara kilyon. A puszta szamitasi teljesitmeny a keszitok szerint kb. a 2x-ese egy 1950XT(X)-nek de mivel mas is tortenik ott a gyorsulas olyan 30%.
''Legalábbis az X1800/1900-as szériát ha be tudták fogni foldingra...''
Letezik a kliens mar tavaly ota mint beta es ezev februarjatol megy elesben. A legkiseb kartya amin fut az az X1600-as.
Szoval csak annyit akartam hogy mielott irsz valamirol nezz utanaPrivat velemeny - keretik nem megkovezni...
-
R.Zoli
őstag
Rosszul fogalmaztam kicsit...Nem a utánanézéssel volt gond szóval nem kell a másikat hülyének nézni maradjunk ennyiben Az azért tök jó ,hogy Te előre tudják mennyit fog menni az R600zal a folding A PS3-nál arra akartam csak utalni ,hogy a Cell ki van kiáltva az über high-tech cuccnak mindig mikor egy mezei GPU amilyen az R600 is pl. leveri teljesítményben egy ilyen programban... Illetvearra akartam utalni ,hogy mennyire örülnek a folding projektesek ,hogy a PS3-mas tulajok beszálltak sokan a projektbe mikor ha egy R600 szintű GPU-val szállna be mondjuk 7000 ember akkor az kb kiadnáa mostani 30000 PS3 számítási teljesítményét...Kb. ez az arány... Nem értem mért a GPU kliens a másodlagos a folding projektnél és arra gyúrnak kevesebbet mikor itt van éppen a nagy potenciál... Ez lenne a lényeg remélem most már érthető...
-
nagyúr
Hmmm, de sok víz lefolyt tegnap este óta...
dezz, #243: Rudi és rocket leírtak már majdnem mindent innováció fronton, csak annyit tennék hozzá, hogy az nVidia magasan nyerte a mind a GF6 VS X0, mind a GF7 VS X1 meccseket anyagilag, pedig mindkét sorozatban az ATI-nak volt erősebb kártyája.
Az extra MUL-t nézd meg a cikkben, nem vállalkoznék a visszaadására, ''Case of the missing MUL'' oldal közepén van valahol. A gond az, hogy generikus shader kódban nem lehet használni, jó ég tudja, miért.
#252: ''A gyakorlatban ezt nehéz elérni, de ha áltagosan a felét kihozzák, akkor is 2x gyorsabb lesz a kód, mint G80-on.)'' - eztet nem értem. Mitől lenne 2x gyorsabb?Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Korcsii
őstag
szerintem (akárcsak a böngészők közt) itt is vannak végrehajtási különbségek a különböző gyártók közt... és ugye egy weboldalnál is több böngészőn kell teszelni, viszont itt most csak egy gyártónál tudtak tesztelni, máshol nem....
-
Raymond
félisten
''Rosszul fogalmaztam kicsit...Nem a utánanézéssel volt gond szóval nem kell a másikat hülyének nézni maradjunk ennyiben''
Figyelembe veve hogy az egesz hsz-edben nem volt egy helyes allitas sem ez egesz langyos megfogalmazas. De egye fene, maradjunk ennyiben
Nos a tobbihez ennyit:
''Az azért tök jó ,hogy Te előre tudják mennyit fog menni az R600zal a folding''
Nem en tudom, hanem maguk a program keszitoi: [link] Az elso hsz mhouston-tol aki a csapat tagja. A 30%-ot osszekevertem valami massal, de a lenyeg maradt.
'' A PS3-nál arra akartam csak utalni ,hogy a Cell ki van kiáltva az über high-tech cuccnak mindig mikor egy mezei GPU amilyen az R600 is pl. leveri teljesítményben egy ilyen programban...''
Ehez csak 2 dolgot:
1) Az R600 nem mezei GPU
2) A GFlops eredmeny a statisztikaban nem olyan egyszeru. Van amit a GPU-n ketszer kel lefuttatni es egy CPU-n (mindegy hogy Intel, AMD vagy CELL) csak egyszer ezert a flops magas de az elvegzett munka nem annyival nagyobb. Nem beszelve a GPU limitaltsagatol de ezt mar leirtak itt neked elottem is. Mielott valami marhasaggal jonnel vissza megint: ezt sem en talaltam ki de meghagyom neked a lehetoseget hogy megkeresd magad a floding@home oldalan.
''Illetvearra akartam utalni ,hogy mennyire örülnek a folding projektesek ,hogy a PS3-mas tulajok beszálltak sokan a projektbe mikor ha egy R600 szintű GPU-val szállna be mondjuk 7000 ember akkor az kb kiadnáa mostani 30000 PS3 számítási teljesítményét...Kb. ez az arány...''
Csak a helyzet az hogy nem szall(t) be ennyi ember. A kliens tobb mint fel evvel a PS3 kliens elott elerheto volt es teszteltek de nem jonnek az emberek. Epp az a lenyeg a PS3-ban hogy egyszerubb a hozzaferes a project-hez egy mainstream felhasznalonak igy nagyobb az eselye hogy csatlakozik. Es ez meg is tortent ahogy lathatod.
''Nem értem mért a GPU kliens a másodlagos a folding projektnél és arra gyúrnak kevesebbet mikor itt van éppen a nagy potenciál...''
A GPU kliensen dolgoznak eleget (tobbet mint pl. a PS3 kliensen) mert egyszeruen muszaj nekik. Nemsokara jon az R600 tamogatas es ha minden igaz akkor a G80 is amivel sokat szivtak de az utolso kijelentesek alapjan megoldodott a legnagyobb akadaly.
''Ez lenne a lényeg remélem most már érthető...''
Ja, meg mindig arrol irsz amirol vilagos hogy nem sok fogalmad van. Raadasul valaki olyannal allsz le vitatkozni rola akirol mar az elso valasz utan lathattad hogy picit tobbet foglalkozott a temaval mint te
Szerk: par eliras, de biztos maradt meg...
[Szerkesztve]Privat velemeny - keretik nem megkovezni...
-
veterán
Megnéztem ezt a játékot, még 7600GT-n is nagyon frankón néz ki, de iszonyat bugyuta a játékmenet... Inkább legyen egy játéknak vmi régebbi motorja, és legyen kevésbé szép, de a játékmenetet ne a 6évesek szintjéhez igazítsák...
-
dezz
nagyúr
Olvasd el légyszi, amit a #262-esben írtam(*) neked erről! Nem csak a nyers FLOPS számít. Ja, kiadja majd a 7000 R600 (a 3-4 feladat-bonyolultsági kategóriából a legegyszerűbbet tekintve!), de mikor lesz 7000 olyan R600 tulaj, akik napi 24 órában foldingot futtatnak? Ugyanis az a 30000 PS3 az az aktuálisan foldingot futtató gépek száma az összesen ~128000-ből... Ehhez képest a GPU-val időnként résztvevők száma most összesen ~3200, amiből egyszerre most épp 940 megy, és ezek sem épp mind a legkomolyabb kártyákkal.
(*) Annyit még hozzátennék, hogy a G80 már sokkal inkább alkalmas a dologra, talán jön is majd ki rá kliens.
gbors: GF7 vs. X1: a másik esetet kevésbé ismerem, de ennél ugye az volt, hogy mind az 19xx, mind a 1650 igencsak későn jött, ezért túzott el az NV.
''Az extra MUL-t nézd meg a cikkben, nem vállalkoznék a visszaadására, ''Case of the missing MUL'' oldal közepén van valahol. A gond az, hogy generikus shader kódban nem lehet használni, jó ég tudja, miért.''
Azt írják, hogy sehogy sem sikerült előcsalni, és hogy most vagy az interpolátor egységek működésének része (akkor végülis csak PR fogás volt külön emlegetni), vagy ott van, de a driverek jelen pillanatban nem használják ki.
''eztet nem értem. Mitől lenne 2x gyorsabb?''
100%-osan kihasználva a független superscalar végrehajtást 4x gyorsabb -> 50%-osan kihasználva 2x gyorsabb lesz. -
R.Zoli
őstag
Nem arról szól a topik melyikünk foglalkozott többet a témával , nem kell fényezned magad elhiszem ,hogy tudod miről beszélsz A lényeget írtam le ,hogy nekem mi nem tetszik benne és nem cáfoltam meg amiket írtál ,hogy valami is nem lenne igaz csak kételkedtem nem pedig a Te válaszaidba kötöttem bele...Amúgy ha neked ez vita akkor örülök, én csak leírtam ,hogy látom a dolgot és nem vitatkozom ha jobban tudsz valamit írd meg ,hogy úgy van és elhiszem Azt hiszem erről szól egy fórum Én sem vágom azt a fejedhez ,hogy én meg abban tudnálak kioktatni ,hogy mi is az amit számol a folding projekt és ennek mi a jelentősége igazából, ez a kutyát nem érdekli, ergo nem kell személyeskedni én sem tettem
Szóval koncentráljunk a tárgyilagosságra: A GPU támogatásnak úgy érzem nincs megteremtve a normális interface a legtöbb esetben ezért nem jönnek az emberek, ennek reklámot is kell csinálni egy szinten nem csak kirakjuk a honlapunkra ''oszt csá''... Bár a folding a legkorrektebb ezügyben mert a többi projektet futattó csoportoknak GPU kliensüket még nem is láttam... Én WCG projektekben vagyok benne és BOINC-ot futtatok, ergo itt semmi GPU kihasználás nem is oldható meg...Ez a szomorú ,hogy csak 1 csoport foglalkozik vele igazán, ezért nincs is tere a dolognak... Azt gondolom ők sem várják el ,hogy a semmiből majd látogatják az emberek az oldalukat, kevés emberhez jut el a hír ,hogy egyáltalán van ilyen... Hidd el ez a gond...
A VGA gyártók csomagolhatnának CD-ket a kártya mellé pl. ilyen kilensekkel és akkor hidd el nagyon sok ember lenne aki futtatná... Ez általános probléma...
Amúgy néztem a fórumot amit linkeltél, ott valóban 45%-ot írnak plusz teljesítményre az R600-ra, ami szerintem nagyon jó! A mezei GPU-t úgy értettem ,hogy bemész a boltba és bármikor megkapod nem is olyan nagy pénzért közel sem mint egy PS3-mat...A statisztika viszont ha nem mutat valós képet GPU/CPU viszonylatban akkor mi értelme van? -
Raymond
félisten
''100%-osan kihasználva a független superscalar végrehajtást 4x gyorsabb -> 50%-osan kihasználva 2x gyorsabb lesz.''
Hogyan? Meg egyszer a felreertesek elkerulese vegett azert szogezzul le hogy ezek az elmeleti szamok:
HD2900XT 475; 8800GTX 345; 8800GTS 230 GFlops (a MUL-t nem szamolva).Privat velemeny - keretik nem megkovezni...
-
Raymond
félisten
''Szóval koncentráljunk a tárgyilagosságra''
OK
''A GPU támogatásnak úgy érzem nincs megteremtve a normális interface a legtöbb esetben ezért nem jönnek az emberek, ennek reklámot is kell csinálni egy szinten nem csak kirakjuk a honlapunkra ''oszt csá''...
A kliens ugyanugy megvan mint evek ota a tobbi. A lenyeg hogy a PS3 klienst sokkal konyebb emeszthetove tenni a kornyezet miatt ahol fut. Ez a GPU kliensnel teljesne mas es a program keszitoi nem csinalhatnak vele sokat (vagyis semmit). Reklam van, a folding@home nem ma indult es a legismertebb DC project, de ezt tudod te is.
''Ez a szomorú ,hogy csak 1 csoport foglalkozik vele igazán, ezért nincs is tere a dolognak...''
Ha magara a GPU szamitasokra gondolsz akkor az ma a nagy divat. Foglalkoznak mar vele eleg sokat. Pl. AMD - CTM, NV - CUDA, Peakstream es meg van par ceg aki ezzel foglalkozik. Csak azok amikre a GPU hasznalhato nem eppen mainstream dolgok, inkabb a HPC agazatban vannak otthon. Medical visualization, financial statistics, data processing stb. Ezek egyike sem olyan kategoria ahol lehetseges lenne vagy valaki akarna otthon ingyen futtani valakinek az applikaciot.
'' A mezei GPU-t úgy értettem ,hogy bemész a boltba és bármikor megkapod nem is olyan nagy pénzért közel sem mint egy PS3-mat...''
Kihagytad a szamitasbol hogy a grafikus kartyahoz kell egy PC is ami azert dob az aron eleg sokat es nem csak az a 400 EUR lesz a csucs kartyaert Egy PS3 meg 600. Ha nezegeted meg a folding forumot ott talalhatsz elemzeseket hogy a kulonbozo kliensek kozul melyik adja a legjobb ar/teljesitmeny aranyt.
Most mar ez nagyon OFF itt ugyhogy ha akarod mashol fojtathatjuk vagy hagyjuk az egeszet ahogy van.Privat velemeny - keretik nem megkovezni...
-
Raymond
félisten
Azert ne vedd keszpenznek amit ott latsz A kiemelt teszt kicsit(?) ferditi a valosagot annyiban hogy olyan keverek a gyakorlatban lehetetlen Kicsit olyan az a shader mint az idealis jelszorol szolo anekdota ha tudod melyikre gondolok.
Privat velemeny - keretik nem megkovezni...
-
nagyúr
Aha, értem, honnan jön a x4, csak azt nem értem, miért a float5 az alap - más issue-val a G80-nak lényegesen nagyobb az átbocsátó képessége. Kicsit fura ez a teszt btw., a float MAD serialnak a G80-on 170 körül illene lennie.
A MUL szerintem is PR bullshit, csak nem tudom bizonyítani
Az X1-nél meg nem csak az x1900XT és az x1650XT késett (az utóbbit már késésnek sem lehet nevezni, annyira lemaradt mindenről), hanem az x1800XT is, és ráadásul nem is lett gyorsabb, mint a 7800GTX. És kiderült persze a végén, hogy mekkora királyság az függetlenített pixel shader pool (meg az is, hogy alullőtték a textúrázókat...), de akkor már kevés volt az idő arra, hogy igazán le lehessen aratni a ''termést''. Könnyen lehet ez most a 2900XTX-szel is.Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
R.Zoli
őstag
Persze ,ezt én is írtam ,hogy a folding legalább rajta van a témán, nyílván ők a legnagyobbak a témában ezért is.... De arról mi a véleményed ,hogy minden idióta használhatatlan ''reklám'' progit tudnak adni egy VGA-val míg a tök ingyenes foldingot nem... Ezzel azért lehet sokat lépne előre a dolog... Sőt most mondok egy baromságot... Lehetne itt is benchelni VGA-kat, kb. ugyan annyi értelme van mint a 3Dmarknak Szépen lehetne vizualizálni a dolgot mint PS3-mon is megtették szal ilyesmi mai kornak megfelelő ''hype''-ra gondoltam
Az egy csopoton a foldingot értettem... Lehet csak én vagyok szerényen informált de a többi csoportosulás (pl WCG) nem tudok róla ,hogy lenne GPU kliensük... Szóval úgy értetm ,hogy sokan kik mondjuk BOINC-ot futtatnak ki merem jelenteni a 90%-a nem is tudja ,hogy GPU-ra is létezik kliens egy másik csoportosulás tevékenységében... Szóval így értem a dolgot ,hogy nincs megteremtve neki az alap...Ergo nem is tudnak a lehetőségéről sem...
Igaz, amit mondasz ,hogy kell gép a VGA melléde szerintem nagyon nagy számban fogynak így is ezek a VGA-k...Ergo lehet ,hogy aki most is futtat mondjuk valami ilyen klienst és megtudná ,hogy van ilyen GPU kliens is emiatt venne olyan VGA-t amivel jobban mennek ezek a számolások... Van sok külföldi fórum ahol dicsőség ha mondjuk WCG-ben előkelő helyen vagy, kb. akkora szá mint a 3d mark vadászat, az egyiknek semmi a másiknak hatalmas jelentősége van...
Nincs sehol topik a GPU-k ilyen irányú felhasználásáról? Engem érdekel a téma szerintem lenne sok más ember is... -
dezz
nagyúr
Az teljesen nyilvánvaló, hogy azok ott nem gyakorlatias tesztek, nem is annak szánták, csak mindkét oldalon demonstrálják a worst és best eseteket. A gyakorlat meg valahol középen van. (Illetve még belejátszik a textúrázás is.) El lehet képzelni olyan kódot, ami ha nem is 5, de 2-3 független műveletet tesz lehetővé egyszerre.
gbors: ''Aha, értem, honnan jön a x4, csak azt nem értem, miért a float5 az alap - más issue-val a G80-nak lényegesen nagyobb az átbocsátó képessége.''
Nem float5! ''float 5-instruction issue'' -> olyan kód, ami R600-on olyan VLIW utasításokat eredményez, amikben 5 különböző művelet van, scalar operandussal/-okkal. Ez az R600-nak ''meg sem kottyan'', de a G80 nagyon nem szereti.
''a float MAD serialnak a G80-on 170 körül illene lennie.''
Hát igen, de talán valami miatt nem lehet kihajtani az elméleti peaket.
R.Zoli: mint már próbáltam közölni, egy GPU nem tud minden feladattal megbírkózni, legalábbis úgy, hogy érdemes is lehet vele művelni.
[Szerkesztve] -
Ribi
nagyúr
Teszteltem kicsit dx9-ben
teljesen default beallitasokkal 1280x720-ban
proci, vga ____:_snow__cave
1.8G, 500/1600:__57____34
1.8G, 621/1800:__67____34
2.8G, 500/1600:__57____54
2.8G, 621/1800:__68____54
Cave masszivan cpu limites.
Atlagot nemtom hogy szamol, mert freki emelesnel azert nottek a min fps-ek es a max is.
Proci rancigalas nelkul a barlangban volt neha 22 fps is, amikor meghuztam meg sosem esett 40 alá.
[Szerkesztve] -
MODERÁTOR
Új info, legalábbis nekem, hogy Steam-ről gyorsan le lehet rántani a demot.
Egyébként szebb, mint ahogy az a screenshotokon látszik, hihetetlenűl jók lettek az effektek. És nem is olyan rossz X1950PRO-val, snow 26, cave pedig 32 fps lett. És teljesen játszható ezekkel az fps-ekkel. Ja a felbontás 1280x960, egyébként alapbeállítás.***
-
Ribi
nagyúr
válasz venember83 #289 üzenetére
Valszeg direkt igy irtak meg. Valakinek cave 49fps 7300gt-vel. Vagyis itt valszeg nagyon nemszamit a vga, csak a cpu (vagyis sokkal kevesbe).
Lui76 valszeg a buzi sok repulo izevel szamol valamit csak hogy terhelje a cpu-t.
[Szerkesztve] -
Abu85
HÁZIGAZDA
Én ezt másképp látom, az NV3x vs R3xx-at egyértelműen megnyerte az ATi. De az NV4x vs R4xx, szvsz az NV4x nyerte. Nem a teljesítményt nézem, hanem az egész rendszer összképét. Az NV40 sokkal fejlettebb volt az R4xx-nél. A G7x vs R5xx szívem szerint döntetlenre hoznám. Bár ha választani kell akkor G7x, mert az tudta a VTF-et.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagyúr
Khmmmm. Ezt jól benéztem. Akkor a ''sportszerűtlen'' kitételt is kéretik törölni a jegyzőkönyvből
Csak az zavar, hogy sehogy nem állnak össze a G80-as teszteredmények, nem látom, milyen utasításszervezés vezethet ezekhez... Lehet, hogy a G80 nem tud thread-et cserélni ciklusvesztés nélkül?Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Abu85
HÁZIGAZDA
-
nagyúr
Igen, a teljesség kedvéért beletehettem volna a GF5 VS Radeon 9 párbajt - hát az elég gyászos volt.
NV4-R4 fronton végül is nem meglepő, amit írsz, hiszen az R4 lényegében egy R3 upgrade. Nem forradalmi, viszont gazdaságos. És azért az X800XT elég jól sikerült.
Aztán a G7 meg G6 upgrade lett (gondolom, már nagyban számoltak a G8-cal), az R5 pedig meg akarta váltani a világot. A végére sikerült is
szerk. Ciklusvesztés: ez azért funny, mert az R600 tudja. És pont a G80-nak lenne nagyobb szüksége rá
[Szerkesztve]Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
Új hozzászólás Aktív témák
- Alkalmazásbemutató: Keep
- Gaming notebook topik
- Súlyos adatvédelmi botrányba kerülhet a ChatGPT az EU-ban
- Debrecen és környéke adok-veszek-beszélgetek
- Futott egy Geekbench kört egy új HTC készülék
- Apple notebookok
- Anime filmek és sorozatok
- gban: Ingyen kellene, de tegnapra
- NVIDIA GeForce RTX 3080 / 3090 / Ti (GA102)
- Az USA vizsgálja a RISC-V kínai terjedésének kockázatát
- További aktív témák...