Keresés

Új hozzászólás Aktív témák

  • naffeju

    csendes tag

    válasz rudi #34 üzenetére

    Alapvetően két kérdést feszegetünk: elméleti stratégia, valamint az AMD realitása.

    Az általános elméleti elemzés, legalábbis nálam, újra és újra oda lyukad ki, hogy a méretgazdaságosság a legnagyobb erő, legalábbis eddig az volt, és egy ideig még az lesz. A versenyelemzés valóban arra mutat, hogy a szerverek terén kevesebb szereplő és magasabb marzsok vannak. Valóban. Csakhogy a rentábilis működéshez olyan volument és részesedést kell elérni, ami finoman szólva is irreálisnak tűnik a piac méretéhez és szerkezetéhez képest. A belépési korlátok és a megtérülés kockázatai hatalmasak.

    Az AMD ezt nyilván úgy igyekszik kiküszöbölni, hogy sztenderd, valamint automatizáltan szintetizált áramkörökkel tervez chipeket. Ezzel valóban drasztikusan lecsökkenthető a tervezési költség, tízmillió dollárrokkal, csakhogy ezt a végtermék szenvedi meg: jelentősen lassabb és nagyobb lesz, mint egy optimalizált változat, ergo drágábban és nyomottabb árakon lehet csak eladni, relatíve. Vannak piacok, főként a beágyazott, egyedi igényekkel rendelkező piacok, ahol ez nem számít, gyors és olcsó tervezés a fontos, nem a teljesítmény és a gazdaságosabb termelés.

    És akkor elérkeztünk a valóságba. A szerverpiacon a processzorok magas teljesítménye továbbra is a legfontosabb szempont az architektúra kiválasztásában, mert ez javítja leginkább a szerverek gazdaságosságát, hatékonyságát. Egy jól balanszolt rendszerben, ahol nincsenek szűk keresztmetszetek, a processzorok teljesítménye meghatározó a teljes szerver, de az infrastruktúra teljesítményében is, míg a processzor költsége csak a költségek egy töredéke (beleértve a fogyasztást is). Jelentős töredék, de töredék. Ezért tud az Intel akkorát aratni szerverekben, és ezért beszél arról, hogy arányaiban egyre több felsőkategóriás Xeont vesznek tőle, mert az ügyfelek is rájöttek, hogy a processzoron spórolni tévedés. A mikroszervereknél ez úgy változik meg, hogy a processzor költségei erősebben megjelennek, vagyis az ár és a fogyasztás fontosabb, mint a klasszikus piacokon, de az alapvető végkövetkeztetés megmarad: a processzor-teljesítmény domináns szempont.

    Na és a messzi nekifutásból akkor AMD és Seattle. Az AMD előtt két választás van: vagy ráfekszik a chip és a rendszer optimalizálására, ami rengeteg pénzt és időt vesz igénybe, és talán soha nem térül meg egy 100 millió dolláros fejlesztési büdzsé, vagy ennek töredékéért kifejleszt valamit, ami lassabb és emaitt sokkal nyomottabb áron lehet adni. Kisebb kockázat, de kisebb az esély a piaci sikerre is.

    Az AMD láthatóan a Seattle-nél az olcsóságra ment rá, ugyanakkor ez a legtöbb szereplő gazdaságossági számításai szerint érdektelen. Az Avoton egy létező termék, létező software stackkel, és mire a Seattle megjelenik és felfut a termelése, az Intel valószínűleg már a 14nm-es utódot fogja kinyomni - jobb teljesítmény alacsonyabb fogyasztás. Másrészt ott van az AppliedMicro, amely szintén elkészült a 64-bites X-Gene-nel.

    Hol a Seattle helye? Hogy lesznek ebből erős marzsok? Amit az AMD csinálhatna, ha kód-specifikus gyorstó blokkokat rakna különféle Seattle-változatokba. Egy telekommunikációs transzkódolásra. Egy nagyméretű renderingre. Egy másik üzleti analitikára. Egy x-edik web kiszolgálásra titkosító, Java és Javascript, php akármilyen motorokkal. Ez a diverzitás nem látszik, csak hogy egy SoC-re többféle gyorsító blokkot raktak - svájci bicska megoldás, 1 év

    Ezzel pedig oda jutunk, hogy sem a kompetitiív elemzés, sem a gazdaságossági számítás nem igazáj állja meg a helyét.

    Az én verdiktem az, hogy a Seattle az erőforrások reménytelen pazarlása, amit az AMD nem engedhetne meg magának.

Új hozzászólás Aktív témák