Új hozzászólás Aktív témák

  • _cirmos_

    őstag

    ráfér néhány jó hír a ps3-ra. amennyivel olcsóbb lesz a cell így, már belefér az árba a ps2 kompatibilitási csip az európai változatba is akár... :P most láttam a fukaros ujságban, hogy ha előrendeled a ps3-at 160k++ tallérért, akkor ajándék exkluzív kitűzőt kapsz a gép mellé! :) nagy kujon ez a saturn, tudja hogy kell lekenyerezni az embert :D

  • bit_vector

    tag

    egyvalamit nem értek... ahova ténylegesen nagy számítási kapacitás kell, oda nem cell-t fognak rakni, hanem a számítási feladathoz illő processzort... általános célokra meg inkább valamiféle Clustert, de nem pont Cell-t. kétségtelen, hogy stream alkalmazásokban jól teljesít, de az SC alkalmazások igen nagy hányada nem stream számítás.... Azon felül ASIC is lehet, ami legalább olyan gyors mint a Cell. Én igazából nem vagyok elájulva attól, amt írnak róla, mert a feltételes elágazások a legtöbb proci elméleti sebességét nagyságrendekkel lerontják.
    pl. lehet akármilyen jó az elágazásbecslés, de a becslés és a valóság közt mindig van egy ablak, amire a becslés nem ad korrekt eredményt... ilyen az alkalmazások közel 80%-a....

    üdv.

    ui: az meg hogy olcsóbb, nem jelenti azt, hogy jobb is... sőt.. a kissebb sem lesz jobb, ha maga az architektúra korlátos...

    Mondd el és elfelejtem; Mutasd meg és megjegyzem; Engedd, hogy csináljam és megértem. /Kung Fu-Ce/

  • jimessor666

    aktív tag

    válasz bit_vector #3 üzenetére

    Egyetértek...
    Bár arra azért kiváncsi lennék hogy az x360 3*3,2 IBM ''HT''-s CPU-jához képest mennyivel jobban teljesítenek a célprocesszorok egy maggal (álá Cell) játékokban,mert arra programozni...hát qva nehéz...
    A Sony szerint egyébbként a ps3 2.18 teraflop-ot termel...hát nem is tom...48 film tömörítés egyszerre???
    Kinek kell ez??? :F

    私たちに聞いてください。!

  • Ste

    addikt

    válasz jimessor666 #4 üzenetére

    játékokhoz minden kevés :)

    vajon meddig fognak ezek a csippek sebességben gyorsulni?

  • robyeger

    addikt

    válasz Ste #5 üzenetére

    CPU szempontból nem nagy kuszt a játékok, de sajnos ott vagy te mint leg kiszámíthatatlanabb szempont az utasítás elágazásbecslés számára :)
    De ha már hozzászóltam a témához: ideje összeszedni magát az IBM-nek gyártástechnológia terén, mert manapság az Intel nagyon meglépett (működő 45nm proci), nem csoda hogy olyan nehezen jönnek azok a 65nm AMD procik

    [Szerkesztve]

    Keresem a 9th Company: Roots Of Terror játék magyar feliratos változatát,mindenféle megoldás érdekel; Intel Pentium-D940/''C1''stepping/ (1.3V-200x16) @ (1.43V-333x12) 4Ghz

  • dezz

    nagyúr

    válasz bit_vector #3 üzenetére

    ''ahova ténylegesen nagy számítási kapacitás kell, oda nem cell-t fognak rakni''

    Nem? Pedig pl. az IBM a következő szuperszámítógépét 50%-ban Cellből építi.

    ''hanem a számítási feladathoz illő processzort...''

    És ez mi is lenne? Gyorsan fejlesztenek egyet pártízmillió dollárból? ;) Nem véletlenül terjed pl. a GPU-k általánosabb számításokban való felhasználása. Még mindig gazdaságosabb azokkal szenvedni, mint új procikat fejleszteni. A Cellel meg ehhez képest jóval könnyebb a munka, plusz azonos elméleti FLOPS-ból többszörös teljesítmény hozható ki vele. Ja, és nem csak stream-feldolgozásra alkalmas.

    Igaz, nem nagyon szereti a Cell a feltételes ugrásokat, de ez inkább csak a sima CPU-magja (PPE) számára jelent gondot (ami megfelelő optimizációval, ill. constraintekkel csökkenthető). A vektorproci-magok (SPE-k) mindegyike saját, L1 cache sebességű 256KB-os embeddedrammal rendelkezik, onnan futnak a programok és ott vannak az éppen felhasznált adatok, így nem jelentkezik az a durva késlekedés, mint amikor egy szokásos procinak a lassú főmemóriából kell újratöltenie magát egy-egy rossz elágazásbecslés után.

    robyeger: a napokban közölte az AMD, hogy közösen az IBM-mel nekik is sikerült előállítani az első működő 45nm-es procit. (Bár ez még csak egy kísérleti chip volt, nem valami újabb generációs K-akármennyi.)

    [Szerkesztve]

  • bit_vector

    tag

    válasz dezz #8 üzenetére

    ''Nem? Pedig pl. az IBM a következő szuperszámítógépét 50%-ban Cellből építi''

    Na persze, kell a reklám neki, mert még új. Arra gondoltál már, hogy miért nem mondjuk 99%-ban van benne Cell ?

    HSZ -ed második részére meg egy másik dolog( nem akarok egy teljes blokkot idézni, le van írva):

    - Ha megfizetsz egy normális és jó mérnököt, kb. egymillióból is kihoz neked a feladatra alkalmas processzormagot.
    - legtöbb esetben az irányító feladatot ellátó processzor mag van a feltételes elágazásokra kihegyezve. Teszik ezt azért mert legtöbb esetben ő hajtja végre a feladatszálak párhuzamosítását.
    - 256kB EmbeddedRAM pedig lufira sem elég. Főleg, hogy egyes algoritmusok adatigénye ettől jóval nagyobb (hozzávetőlegesen: ha extrém nagy pontosságú pi-t számolsz, akkor adott esetben ez a 256kB-hoz képest a szám memóriaigénye akár sokszorosa is lehet - nem beszélve arrról, ha szeretnél vele számolni is)
    - maga az architektúra erősen korlátos... kicsit úgy hat, mint a Microchip gyártó Propeller mikrovezérlője.
    - A számítási teljesítmény minden esetben stream alkalmazásoknál lesz a legnagyobb. A miértre annyit, hogy ott lehet a leghosszabbra venni a pipeline méretét, ráadásul a stream mód miatt kevés lesz a feltételes elágazás benne (egy példa : digitális jelfeldolgozás).
    - Constraint? optimalizálás??? ember, ezek mind a fordító oldalon jelentkeznek, ha egy feltételes elágazást így veszek ki a programból, csak a kód mérete lesz nagyobb, sőt adott esetben lassabb is... Programoztál már assembly-ben ? és hány processzorcsaládon ?


    üdv.

    [Szerkesztve]

    Mondd el és elfelejtem; Mutasd meg és megjegyzem; Engedd, hogy csináljam és megértem. /Kung Fu-Ce/

  • dezz

    nagyúr

    válasz bit_vector #9 üzenetére

    ''Na persze, kell a reklám neki, mert még új. Arra gondoltál már, hogy miért nem mondjuk 99%-ban van benne Cell ?''
    Ugyan, ez egy kicsit drága reklám lenne. :P
    Gondoltam: valami kell a (ha jól emlékszem) 32000db Cell közötti kommunikáció biztosítására is. Másrészt persze általános feladatokban is ütősnek kell lennie, nem csak számításokban.

    ''- Ha megfizetsz egy normális és jó mérnököt, kb. egymillióból is kihoz neked a feladatra alkalmas processzormagot.''
    Kötve hiszem. Vettem már részt kb. ilyen nagyságrendű (dollárban) hw fejlesztésben, enyhén szólva nem fért bele ilyesmi, csak 1-2 FPGA felprogramozása, amiben persze lehet mikroproci, de csak egyszerűbb. A Cell kifejlesztése állítólag többszáz millió dollár volt (mérnökcsoport többéves munkája, próbagyártások, stb.).

    ''- legtöbb esetben az irányító feladatot ellátó processzor mag van a feltételes elágazásokra kihegyezve. Teszik ezt azért mert legtöbb esetben ő hajtja végre a feladatszálak párhuzamosítását.''
    Feladatszálak párhuzamosítását? Ezen mit értesz? Real-time A.I.-s párhuzamosító? ;)
    (Fejleszt egyébként az IBM egy ilyen spéci fordítót Cellhez.)
    Viccet félre téve, bizonyára a párhuzamos szálak összehangolására, megfelelő időben való indítására, stb. gondolsz. Nos, lehet így is csinálni, de teljesen önállóan is működhetnek az SPE-k, egymást vezérelve is (egymás memóriáját is látják). A kódot és az adatokat maguk töltik/mentik a főramból saját DMA-val.

    ''- 256kB EmbeddedRAM pedig lufira sem elég. Főleg, hogy egyes algoritmusok adatigénye ettől jóval nagyobb''
    Hát ja, bizonyos dolgokra nem elég. Sok más dologra meg igen. Léteznek ám Cellhez hasonló, de sokkal szerényebb DSP chipek jópár éve, elég sokmindenre használják őket. Hozzájuk képest a Cell egy monstrum.

    ''(hozzávetőlegesen: ha extrém nagy pontosságú pi-t számolsz, akkor adott esetben ez a 256kB-hoz képest a szám memóriaigénye akár sokszorosa is lehet - nem beszélve arrról, ha szeretnél vele számolni is)''
    Poénos extrém pontosságú pi-t számolni, de nem igazán hétköznapi tudományos feladat.
    Mellesleg nem kell az egész számsornak egy időben a belső memóriá(k)ban lennie.

    ''- maga az architektúra erősen korlátos... kicsit úgy hat, mint a Microchip gyártó Propeller mikrovezérlője.''
    Erős túlzás.

    ''- A számítási teljesítmény minden esetben stream alkalmazásoknál lesz a legnagyobb.''
    Nem feltétlenül. Attól függ, az adott streammel mit is kell csinálni...

    ''A miértre annyit, hogy ott lehet a leghosszabbra venni a pipeline méretét, ráadásul a stream mód miatt kevés lesz a feltételes elágazás benne (egy példa : digitális jelfeldolgozás).''
    Stream-feldolgozáshoz is kellhet sok-sok elágazás, feladattól függően.

    ''- Constraint? optimalizálás??? ember, ezek mind a fordító oldalon jelentkeznek, ha egy feltételes elágazást így veszek ki a programból, csak a kód mérete lesz nagyobb, sőt adott esetben lassabb is...''
    1. Bevett optimizálási gyakorlat az ugrások kivétele, és a ciklus ''letekerése''. Architektúrától függően sokat gyorsíthat. Pl. GPU-knál is gyakori.
    2. Az ide vonatkozó constrainttel azt mondod meg a fordítónak, melyik végrehajtási irány lesz a gyakoribb. Ez tehát nem veszi ki az ugrást.

    ''Programoztál már assembly-ben ? és hány processzorcsaládon ?''
    Nagyjából 20 éve ezt teszem, kisebb-nagyobb megszakításokkal. 65xx/85xx, 68k (fpu is), PowerPC (ezt csak keveset), különféle mikrokontrollerek.

    [Szerkesztve]

  • Rive

    veterán

    válasz bit_vector #9 üzenetére

    - Ha megfizetsz egy normális és jó mérnököt, kb. egymillióból is kihoz neked a feladatra alkalmas processzormagot.
    Sületlenség. Ennyiből még komolyabb FPGA-t is csak szűkösen raksz HW-környezetbe - de akkor valamit még az adataival is kezdeni kell.

    Effélére amúgy volt már kezdeményezés: talán 939-es foglalatra (dualból a másodikra), HT linkre terveztek egy közel általános FPGA tokot, hozzá spéci fordítót, ami az általános(abb) feladatokat HW-re fordította. Még talán egy halovány API is összejött. Aztán a többi teljesen saját feladat.
    Eléggé hamvába holt dolog - amennyiért megvetted és fentartottad az egész hóbelevancot, annyiért vettél tíz WS-t, ami szumma lemosta az egészet a francba. És kevesebb törődést igényelt.

    - 256kB EmbeddedRAM pedig lufira sem elég.
    Ilyet is csak egy windowshoz szokott ember mondhat :) Ami a kódot illeti: a 64k ma is tökéletesen elég a futásidő 99 százalékára. Adatból pedig 256k úgy 95%-ra. Általános esetben.

    - A számítási teljesítmény minden esetben stream alkalmazásoknál lesz a legnagyobb. A miértre annyit, hogy ott lehet a leghosszabbra venni a pipeline méretét, ráadásul a stream mód miatt kevés lesz a feltételes elágazás benne (egy példa : digitális jelfeldolgozás).
    A 'stream' amolyan varázsszó lett, kár érte. Eredetileg olyan alkalmazásokat jelentett, ahol a memóriaelérés költségeit a folyamatos és kiszámítható memóriahasználat mögé lehetett rejteni.

    Ide a kiszámítható viselkedés és a darabolhatóság kell. A stream jelleg a beágyazott memória miatt kevésbé lényeges - itt a legjobb, ha egy szuszra fix, nagy méretű adatblokkot lehet behúzni, aztán a feladat végén kitolni.


    Rövidre vágva: a Cell sokkal rugalmasságban, felhasználási körben a célhardver és a klasszikus CPU-k között van, ugyanakkor az ára olcsóbb, mint még néhány procié. A korlátai ellenére nagyon is van helye az 'izom' világában is.

    /// Nekünk nem Mohács, de Hofi kell! /// Szíriusziak menjetek haza!!!

Új hozzászólás Aktív témák