Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Aucor #45 üzenetére

    A többi régi dologgal nem tudnak mit kezdeni. Ez olyan lesz, mint az egymagos->kétmagos váltás. A régi programok, amiket nem frissítenek még ma is egy processzormagon futnak, de a gyártóknak rá kellett lépni a többmagos procik ösvényére, mert megszűnt az egymagos processzoroknál a skálázás lehetősége. Most ugyanez a többmagos prociknál szűnik meg, vagyis ki kell jelölni egy olyan új irányt, ami biztosítja azt, hogy a lapkák throughput teljesítménye évről-évre nőjön. Korábban már mondtam, hogy erre két lehetőség van. Az egyiket az Intelnél dolgozó Fred Pollack szabálya. Ez azt mondja ki, hogy a processzormagok bonyolultságát csökkentve csökkenthető a lapkán elfoglalt méretük is, és ezzel több processzormag kerülhet egy chipre, ami növeli a throughput teljesítményt. Ezzel az a baj, hogy negatív hatással van az egy szálon elérhető teljesítményre, vagyis az Amdahl-törvény miatt a legacy programok lassulnak ettől az iránytól, de az új programok nyilván gyorsulni fognak. A másik megoldás az APU, ahol külön magok lesznek a serial vagy task parallel kódoknak (CPU-magok), és külön magokat lesznek a data parallel munkavégzésre (GPU-magok). Ezzel a legacy programok sebessége nem lassul, noha nem is gyorsul majd drasztikusan, emellett az új programok gyorsulni fognak. A két dolog között az a különbség, hogy Fred Pollack szabálya nem követel új programozási modelleket, míg az APU igen. Szóval vannak rendesen pro/kontra érvek, de úgy néz ki, hogy a gyártók nem akarják lassítani a legacy programok sebességét, és ezért inkább jöjjenek az új programozási modellek, és az APU-k.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák