Keresés

Új hozzászólás Aktív témák

  • bit_vector

    tag

    egyvalamit nem értek... ahova ténylegesen nagy számítási kapacitás kell, oda nem cell-t fognak rakni, hanem a számítási feladathoz illő processzort... általános célokra meg inkább valamiféle Clustert, de nem pont Cell-t. kétségtelen, hogy stream alkalmazásokban jól teljesít, de az SC alkalmazások igen nagy hányada nem stream számítás.... Azon felül ASIC is lehet, ami legalább olyan gyors mint a Cell. Én igazából nem vagyok elájulva attól, amt írnak róla, mert a feltételes elágazások a legtöbb proci elméleti sebességét nagyságrendekkel lerontják.
    pl. lehet akármilyen jó az elágazásbecslés, de a becslés és a valóság közt mindig van egy ablak, amire a becslés nem ad korrekt eredményt... ilyen az alkalmazások közel 80%-a....

    üdv.

    ui: az meg hogy olcsóbb, nem jelenti azt, hogy jobb is... sőt.. a kissebb sem lesz jobb, ha maga az architektúra korlátos...

    Mondd el és elfelejtem; Mutasd meg és megjegyzem; Engedd, hogy csináljam és megértem. /Kung Fu-Ce/

  • bit_vector

    tag

    válasz dezz #8 üzenetére

    ''Nem? Pedig pl. az IBM a következő szuperszámítógépét 50%-ban Cellből építi''

    Na persze, kell a reklám neki, mert még új. Arra gondoltál már, hogy miért nem mondjuk 99%-ban van benne Cell ?

    HSZ -ed második részére meg egy másik dolog( nem akarok egy teljes blokkot idézni, le van írva):

    - Ha megfizetsz egy normális és jó mérnököt, kb. egymillióból is kihoz neked a feladatra alkalmas processzormagot.
    - legtöbb esetben az irányító feladatot ellátó processzor mag van a feltételes elágazásokra kihegyezve. Teszik ezt azért mert legtöbb esetben ő hajtja végre a feladatszálak párhuzamosítását.
    - 256kB EmbeddedRAM pedig lufira sem elég. Főleg, hogy egyes algoritmusok adatigénye ettől jóval nagyobb (hozzávetőlegesen: ha extrém nagy pontosságú pi-t számolsz, akkor adott esetben ez a 256kB-hoz képest a szám memóriaigénye akár sokszorosa is lehet - nem beszélve arrról, ha szeretnél vele számolni is)
    - maga az architektúra erősen korlátos... kicsit úgy hat, mint a Microchip gyártó Propeller mikrovezérlője.
    - A számítási teljesítmény minden esetben stream alkalmazásoknál lesz a legnagyobb. A miértre annyit, hogy ott lehet a leghosszabbra venni a pipeline méretét, ráadásul a stream mód miatt kevés lesz a feltételes elágazás benne (egy példa : digitális jelfeldolgozás).
    - Constraint? optimalizálás??? ember, ezek mind a fordító oldalon jelentkeznek, ha egy feltételes elágazást így veszek ki a programból, csak a kód mérete lesz nagyobb, sőt adott esetben lassabb is... Programoztál már assembly-ben ? és hány processzorcsaládon ?


    üdv.

    [Szerkesztve]

    Mondd el és elfelejtem; Mutasd meg és megjegyzem; Engedd, hogy csináljam és megértem. /Kung Fu-Ce/

Új hozzászólás Aktív témák