Keresés

Új hozzászólás Aktív témák

  • bit_vector

    tag

    válasz dezz #8 üzenetére

    ''Nem? Pedig pl. az IBM a következő szuperszámítógépét 50%-ban Cellből építi''

    Na persze, kell a reklám neki, mert még új. Arra gondoltál már, hogy miért nem mondjuk 99%-ban van benne Cell ?

    HSZ -ed második részére meg egy másik dolog( nem akarok egy teljes blokkot idézni, le van írva):

    - Ha megfizetsz egy normális és jó mérnököt, kb. egymillióból is kihoz neked a feladatra alkalmas processzormagot.
    - legtöbb esetben az irányító feladatot ellátó processzor mag van a feltételes elágazásokra kihegyezve. Teszik ezt azért mert legtöbb esetben ő hajtja végre a feladatszálak párhuzamosítását.
    - 256kB EmbeddedRAM pedig lufira sem elég. Főleg, hogy egyes algoritmusok adatigénye ettől jóval nagyobb (hozzávetőlegesen: ha extrém nagy pontosságú pi-t számolsz, akkor adott esetben ez a 256kB-hoz képest a szám memóriaigénye akár sokszorosa is lehet - nem beszélve arrról, ha szeretnél vele számolni is)
    - maga az architektúra erősen korlátos... kicsit úgy hat, mint a Microchip gyártó Propeller mikrovezérlője.
    - A számítási teljesítmény minden esetben stream alkalmazásoknál lesz a legnagyobb. A miértre annyit, hogy ott lehet a leghosszabbra venni a pipeline méretét, ráadásul a stream mód miatt kevés lesz a feltételes elágazás benne (egy példa : digitális jelfeldolgozás).
    - Constraint? optimalizálás??? ember, ezek mind a fordító oldalon jelentkeznek, ha egy feltételes elágazást így veszek ki a programból, csak a kód mérete lesz nagyobb, sőt adott esetben lassabb is... Programoztál már assembly-ben ? és hány processzorcsaládon ?


    üdv.

    [Szerkesztve]

    Mondd el és elfelejtem; Mutasd meg és megjegyzem; Engedd, hogy csináljam és megértem. /Kung Fu-Ce/

Új hozzászólás Aktív témák