Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Mr. Spock #3 üzenetére

    Mint írtam az Intel elmondása szerint. Most tényleg rohadtul nem tehetek róla, hogy ezt mondták. De tuti jól hallottam, mert az Anandtech is ugyanezt értette. [link]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Qkackca #37 üzenetére

    Sok dolog lehet mögötte. A legvalószínűbb tényező, hogy az Intel ezt is olcsón akarta megoldani, így megtartották volna az öreg berendezéseket, hátha jók lesznek azok a gyártásra némi átalakítás után. Ezzel szemben a bérgyártók nem voltak ennyire merevek az anyagiak szempontjából, ők szépen belerakták a pénzt a berendezésekbe is.
    A legnagyobb kérdés, hogy ezekhez a döntésekhez mi vezetett, és valószínű, hogy Krzanich tisztogatása, amikor ugyanis elnökké választották, akkor azonnal kirúgott mindenkit, aki a leendő hatalmára veszélyes lehetett. Ez viszont sok mérnöknek nem tetszett, és ők önként léptek ki. Na most ezek a mérnökök mentek a TSMC-hez, Samsunghoz, GlobalFounrdies-hoz, stb. Krzanich viszont nem pótolta őket, hanem a fiatalokra épített, hogy ők is meg tudják ezt oldani. Valószínűleg a fiatalok tapasztalat még nem volt elég ehhez, ami akkor nem látszott, mert a 14 nm úgy ahogy működött, de egy olyan lavinát indított el, ami a tervezés alatt álló gyártástechnológiákat negatívan érintette.

    A gyártástechnológia pedig csak egy tényező. Valójában meg lehet élni úgy is, hogy nem a legjobb node-ot használja a cég. Lásd az AMD-nél az Opteron/Athlon 64 időszakot. Tehát az Intelnek sem csak az a gond, hogy a 10 nm nincs kész, mert a 14 nm-en is lehetne élni, akár versenyképes termékkel is. A probléma sokkal inkább az a rombolás, amit Krzanich végzett a részlegekben és az útitervekben. A 10 nm-es nehézségek csak a jéghegy csúcsát jelentik.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz arn #41 üzenetére

    De azt nem csak a gyártástechnológia határozza meg. Ha csak nyersen a gyártástechnológia lenne itt a kulcs a sikerhez, akkor az Intel különösebb hátrányban nem lenne a 14 nm-rel sem. A problémájuk, hogy ez körülbelül a végtermék tulajdonságainak kb. 20%-át, ha meghatározza. Az AMD a Zennel leginkább az egyéb tényezőkből profitál. Amikor nem náluk volt a gyártástechnológiai előny, akkor rengeteg pénzt öltek a feszültségskálázásba, illetve a különböző tervezőkönyvtárakba, hogy utóbbiak az adott dizájnból a lehető legtöbbet hozzák ki eszközszinten. Az Intel ezekre minimálisan költött, mert az volt a koncepció, hogy egy generáció előny van a gyártástechnológiákban, tehát amit az AMD csinál szoftveresen azt úgyis képesen biztosítani hardveres szinten. Na most azzal, hogy az AMD behozta a gyártástechnológiai különbségeket, az össze olyan fejlesztésük iszonyatosan felértékelődött, amit az elmúlt 10 évben azért pénzeltek, hogy egyáltalán tartsák valahogy a lépést az Intellel. Az AVFS, a finomszemcsés P-State modell, a HDL/HPL könyvtár, a GPGPU bevetése a lapkák tervezésénél mind-mind olyan elem, ami az Intelnél teljesen hiányzik, mert régebben nem volt rá szükség. Sok pénzbe kerültek volna, és amúgy is automatikusan hozta az előnyt a gyártástechnológia. Szóval a Zen az nem a nanométer miatt erős, hanem azért, mert olyan fejlesztésekbe öntötte az AMD a pénzt, amelyekhez hasonlókba az Intel nem rakott szinte semmit, és ez a gyártástechnológia kiegyenlítődésével már direkt előnnyé vált, nem pedig egy lemaradást csökkentő tényezővé. Plusz a szervereknél még az Infinity Fabric egy extra gyomros lett, aminek az alapját az Intel orra elől vette meg az AMD a SeaMicro felvásárlásával.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz arn #46 üzenetére

    A mai lapkáknál már egyre értelmetlenebb a csúcsterhelés fogalma. A feszültségskálázás még a legbutább megoldásban is van annyira jó, hogy az órajel-paraméterezés abszolút él teljes terhelésen is. Ergo ma már nem igazán van olyan terhelés, aminél ne játszanának szerepet ezek a teljesen vagy részben szoftveres fejlesztések. A különbség ezek hatékonysága.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Cifu #56 üzenetére

    A 128 bit sok fejlesztést igényelne, és nem kritikus fontosságú a 64 bit aktuálisan még igen jó használhatósága mellett.
    Újabb utasításkészletek jönnek, csak az autovektorizálás köhög. Hiába csinálsz 1024 bites SIMD-et, amíg ezt a problémát nem oldják meg, nehéz lesz használni a beépített feldolgozók zömét. Az ARM nem véletlenül tervezte máshogy az SVE-t.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák