Keresés

Új hozzászólás Aktív témák

  • paprobert

    senior tag

    válasz Tamás88 #14 üzenetére

    Ez nem "kb. olyan", hanem ugyanaz. Az FM2-es APU-k is munkagép processzormagokat tartalmaznak.

    A 8 vagy 4 mag kérdése attól függött, hogy milyen programot futtattál. A legtöbb esetben 4 magosként viselkedett a processzor a megosztott erőforrások miatt, de bizonyos workloadok alatt a 8 mag nem volt megtévesztés.

    [ Szerkesztve ]

    640 KB mindenre elég. - Steve Jobs

  • paprobert

    senior tag

    Keller az AMD-s visszatéréskor elmondta hogy mi az irány. A két mag irányvonalának(Bulldozer, Jaguar) legjobb tulajdonságait akarták ötvözni. Magas frekvenciát egyesíteni a kis, sűrű, nagy IPC-vel rendelkező magokkal.
    Keller nyilatkozat

    Elhagytak minden ezoterikus világmegváltó ötletet amibe korábban belebuktak. Egy nagy lépést tettek a magok "intelesítésének" irányába, hogy a szoftverek kapásból jobban feküdjenek az új magnak. Az Intel dominanciája egy ki nem mondott X86 ideál-hardvert hozott létre, amitől nagyon eltérni mindig teljesítményvesztéssel járt. A Bulldozer ettől nagyon távol állt, a Zen mag már összevethetően közeli rokonságba került egy Intel maggal.

    Jó döntés a Bulldozerhez képest, hogy csak ott feleznek erőforrásokat, ahol garantált, hogy nem mehet a teljesítmény rovására, vagy nem annyira számít felhasználói oldalon.

    Mindent elhagyni nem lehetett, a modulokra optimalizálással (CCX) még a mai napig szívnak. lásd pl.: saját maguknak kell a chipset driverben hekkelniük az ütemezőt, hogy a szál-allokáció optimális legyen.

    A standard megoldásoktól ezért veszélyes eltérni.

    640 KB mindenre elég. - Steve Jobs

  • paprobert

    senior tag

    Egyébként amint kiderült, hogy a Bulldozer ekkora melléfogás lett, miért nem portolták a Thuban-t 32 nm-re?

    Az első 2 évben egy erősebb ajánlat lett volna desktopra. Fogyasztás ugyanaz, egy szálon jobb, IPC-ben jobb, az órajel is valahol 4 GHz körül tudott volna lenni...

    [ Szerkesztve ]

    640 KB mindenre elég. - Steve Jobs

  • paprobert

    senior tag

    válasz Abu85 #41 üzenetére

    "A modul lényege az egyszálú teljesítmény maximalizálása volt, mert ha egy szálon futott a számítás, akkor lényegében az a szál egymaga megkapta a túlméretezett, két szálra tervezett részeket."

    vs.

    2012-es magyarázatod
    "A Bulldozer fő szempontja a throughput teljesítmény kitolása volt, amihez elővették Pollack szabályát. Ha egy szálon várod a teljesítményt, akkor nem az volt a cél, hogy ott jó legyen. Ha a throughput tempót várod, akkor az növekedett."

    Itt valami nem kóser. :N

    [ Szerkesztve ]

    640 KB mindenre elég. - Steve Jobs

  • paprobert

    senior tag

    válasz Abu85 #150 üzenetére

    De akkor mégis hova a csudába bújt el a jó egyszálas teljesítmény? Toporgás, IPC-visszalépés történt.

    Ha technikailag helytálló lenne az, amit írtál, akkor erre az egyetlen logikus magyarázat az lenne, hogy kisebbek lettek a magok, mint aminek kellett volna lenniük. Gyakorlatilag túltolták a throughput-optimalizáltságot, és ennek az egyszálas teljesítmény látta kárát.

    De ha megnézzük az elköltött tranzisztormennyiséget és a méretet az adott gyártástechnológián, akkor a Zambezi pazarlóbb mint a Thuban, nyoma sincs annak, hogy akár tranisztorszámban, akár méretben visszavágták volna az FX magokat.

    [ Szerkesztve ]

    640 KB mindenre elég. - Steve Jobs

  • paprobert

    senior tag

    válasz Yutani #152 üzenetére

    Tudod, egyre nehezebben vagyok hajlandó tolerálni bármelyik ilyen "ez a hibás" elméletet.

    Hallottunk már annyi mindent az elmúlt években, bűnbaknak lett kikiáltva:
    -a gyenge frontend,
    -az osztott FPU,
    -a túlbonyolított cache alrendszer
    -a túl hosszú pipeline
    -a nem 6-8 GHz-en futó példányok
    -a szoftvervilág igényei

    A felsoroltak bármelyike gondot okoz, de 1-1 sor önmagában nézve nem válaszolná meg a teljes kudarcot.

    A valóság az, hogy

    1. egy szálon gyenge lett a fejlesztés. Ez a kiindulópont.
    2. a modult teljesen leterhelve az INT : FPU arány eltolódik az optimálisból INT túlsúlyba, amivel az FPU részleg INT üresjáratot okoz, és gyakorlatilag FPU hiány áll be. Nesze neked magduplázás.
    3. High performance library-vel is órajel és fogyasztás plafonba fejelt az AMD.

    Teljesen másról szólt volna a Bulldozer történet, ha a bázis egyszálas teljesítmény ott lett volna a szeren, mindenki, beleértve engem is állva tapsolt volna.
    Ehelyett jöttek "csak emiatt nem jó, de milyen jövőbemutató, majd a heterogén éra, majd a HSA, majd a Mantle, majd a DX12" urban legendek.

    A Zen tudta kombinálni az elfogadható IPC-t, a versenyképes órajeleket dense library-vel is, a valódi magokat balanszolt erőforrásokkal. Mindez fejlett energiagazdálkodással, egy korrekt node-on.

    A világot sem kellett megváltani, jó is lett.

    [ Szerkesztve ]

    640 KB mindenre elég. - Steve Jobs

  • paprobert

    senior tag

    válasz Abu85 #155 üzenetére

    Az Intel által megszellőztetett tervek a CPU fronton valóban a CPU feldolgozókkal való kitömését célozza, illetve megfejelik az egészet a GPU-val a párhuzamosított ökoszisztémával. Teljesen kukába dobják az egyensúlyt? Koránt sem.

    Látni kell, hőgy ők is evolúcióban gondolkodnak, simán a P6 DNS-re építkezve.

    De odaállni a fejlesztők elé, hogy "Szevasztok, holnaptól lesztek szívesek megoldani a feladatot az eddigi 1 helyett 0.5-0.7 teljesítménnyel". Na ez így nem megy. (Bulldozer)

    Egy ma jól működő dizájnt is lehetséges optimalizálni throughputra. A szoftverfejlesztők szeretni is fogják, mert ha ki tudod használni, nyersz, de ha nem tudod sem baj, mert az extra teljesítmény továbbra is ott van a régi jól bevált keretek között.

    Én az AMD-től is ezt várom, a CCX-ek nagyon jó lehetőséget kínálnak egy felpimpelt, throughput-barát működésre, ahogy a belső interconnect tempója növekszik a következő 2-3 generációban.

    [ Szerkesztve ]

    640 KB mindenre elég. - Steve Jobs

Új hozzászólás Aktív témák