Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz TESCO-Zsömle #1 üzenetére

    Igen, de erre vannak megoldások. Mindenesetre a 3D stacking főleg kisebb fogyasztás mellett ajánlott.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #06658560 #2 üzenetére

    Ezek egyelőre tervezetek. Valszeg 2013-ban még nem lesz belőlük semmi, bár a GPU-knál vannak már prototípusok. Én úgy gondolom, hogy az AMD először kipróbálja GPU-n és csak utána APU-n/SoC-on. Az jellemző az AMD-re, hogy először GPU-n csinálnak egy éles tesztet.
    Egyébként bármelyik bárhol alkalmazható. Függően az igényektől.
    A rendszermemóriát eleinte nem hiszem, hogy ez teljesen kiváltja. Később lehet. A nagyobb teljesítményű lapkáknál ez először inkább gyorsítótár lehet, illetve a GPU-nak egy gyorsan elérhető külön memória, amibe mehet a frame buffer a render targetek és a procival megosztott adatok.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #06658560 #5 üzenetére

    Még mindig nem világos, hogy miért integrál mindenki. A fizika törvényei felülírhatatlanok. Lehet velük vívni, de úgyis a fizika nyer. Amennyire ismert Moore törvénye annyira ismeretlen a Dennard Scaling. Moore törvénye jó, mert gyártástechnológiánként több tranyót tudsz egységnyi helyre bepakolni. A Dennard Scaling biztosítja azt, hogy a tranyók bekapcsolásához szükséges energia csökken, így jellemző volt régebben, hogy egy ugyanakkora lapka 180 és 130 nm-en is ugyanannyi fogyasztott, holott a nyilván utóbbiban több tranyó volt. Ebben az időben szépen emelgettük is az órajelet, jöttek a gyorsabb cuccok, de a gyártástechnológia csökkenése folyamán valami történt. A Dennard Scaling, ami a teljesítmény növelését biztosította egyszerűen egyre kevésbé volt érzékelhető. A tranyók bekapcsolásához szükséges energia nem csökkent olyan mértékben, mint azt a szabály kimondta, de eközben Moore törvénye működött. Ez a híres Prescott Pentium 4-en látszott. Iszonyatos fogyasztása volt, és ez abból eredt, hogy az Intel a Dennard Scalingra alapozta a fejlesztést, ami a gyakorlatban már nem működött úgy, mint régebben. Közben kijött a Cell radikálisan új felépítéssel, ami lesokkolta a világot. Következmény a homogén többmagos éra. Mivel Moore törvénye működik, így a tranyókat lehet szépen pakolgatni, az egyetlen kikötés az volt, hogy mostantól ezeknek nem szabad egyszerre bekapcsolva lenniük. Elkezdtük növelni a magok számát, és gyorsulgattunk tovább. De megint történt valami. A Dennard Scaling minden gyártástechnológiai váltással egyre kevésbé volt a tetten érhető gyakorlatban. Ezért ragadtunk 4 magnál le. Most már a magok számát is úgy lehet emelni, ha a fogyasztás nő, vagy ha ez nem opció, akkor Pollack szabályát kell bevetni, vagyis egyszerűbb magokat kell tervezni. Ezzel az egy szálon leadott teljesítmény csökken, de a throughput teljesítmény nő. A gyártók azonban rájöttek, hogy ez nem a legjobb út, mert az egy szálú teljesítmény kivégzése nem lenne célszerű, és a processzorokat sem éppen a throughput teljesítményre optimalizálják, hiszen késleltetésre érzékeny magokról van szó. Megint előkerült a Cell, mint referencia. Az baromira jól működött a fogyasztás és a throughput teljesítmény tekintetében. Pedig a Sony egyedül annyit csinált, hogy egy késleltetésre, és több throughput terhelésre optimalizált magot rakott a rendszerbe. Itt merült fel a heterogén többmagos lapkák ötlete. Anélkül is skálázható a lapka, hogy ki kellene végezni az egy szálú tempót. Egyszerűen kell a chipbe pár késleltetésre optimalizált mag, ami az egy szálon futó és a task parallel feladatokat végzi, a data parallel feldolgozásban pedig a GPU-k a királyok, hát integrálni kell őket. Itt tartunk most. A Dennard Scaling megfeneklett, de a heterogén érával nyerünk úgy 8 évet, és hátha akkora lesz valami új technológia a CMOS helyére. Ellenben a heterogén éra szintén gyerekcipő. Megoldották a gyártók a fizikai integrációt, de rendszerszintű kellene. Megoldás meg kell osztani a CPU és a GPU között a rendszermemóriát és a címtérnek közösnek kell lennie. Ilyenkor a GPU tényleg egy igazi co-processzorra lehet a CPU-nak. A programozásra kell egy virtuális ISA és egy erre épülő infrastruktúra. Ilyen vISA az NV PTX, és az AMD, ARM, ImgTec, TI, MediaTek által támogatott HSAIL. Utóbbi gyártófüggetlen. Valszeg ennél nyíltabb megoldás nem lesz erre, így a HSA megfelel a célnak. Johan Andersson fel is szólította a cégeket a SIGGRAPH-on, hogy támogassák a HSA-t, mert egy vISA-ra fog programot írni (gyaníthatóan más is), és nem arra, amelyik zárt. Kell még egy olyan fejlesztés a GPU-nak, hogy képes legyen a CPU-tól függetlenül feladatott indítani, így teljes rendszerek függetleníthetők a CPU-tól és csak a GPU-t igénybe véve futtathatók. Ezekre pedig a hardver oldalán szükséges a gyorsabb memória, amire a die stacking a legjobb megoldás.
    Szóval ez egy logikus evolúció minden cég részéről. Egyszerűen reakció a problémákra. A piac változik, az igények változnak és ezzel változnak a termékek.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #06658560 #9 üzenetére

    Moore törvénye egy tapasztalati törvény. Alapvetően a fizikától függ, mert a fizika teszi lehetővé a miniatürizálást. De amúgy ez a törvény inkább önbeteljesítő, mert az iparág normaként tekint rá.
    Nem kötelező követni a törvényt, de ha nem teszed lemaradsz.

    Sebességet nyernek. Sokat.
    Az alaplapokat semennyire. A processzort igen, de azt úgyis olcsón gyártják.

    A vevő gyorsulást, illetve kisebb fogyasztást akar. Ma ezt így lehet biztosítani. A másik opció, hogy nem csinálnak gyorsabb vagy kevesebbet fogyasztó termékeket. Ez egy profitorientált cégnél fel sem merül. A harmadik opció szarni a fogyasztásra és hozni a 400 wattot fogyasztó homogén többmagos processzorokat, de a zöld irány ma már a piac része.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #06658560 #26 üzenetére

    Moore törvényét próbálják tartani, és szerintem egy pár évig még tartják is. Akik már egy ideje nem tartják azon a SoC fejlesztők. Ők lassulnak, és szerintem a 28 nm-re még átváltanak, de azon maradnak úgy 2015-ig.

    A Dennard Scaling hanyatlása éppen elég komoly technológiai határ. A legrosszabb, ami történhetett. Ehhez képest nem sír senki, hanem keresik a megoldást az integrációban. Ahogy ezt kezelik a cégek az elég pozitív.

    A LOC/TOC arányt a piac fogja meghatározni. Ezen nem kell aggódni. Ma persze világos, hogy még nincs olyan nagy összhang ebben. Ki ezt, ki azt tartja fontosnak, és mindkettő mellett van érv. A jövőt nem nehéz látni. Hang-, gesztus-, arc-, mozgásfelismerés, biometrikus azonosítás, kiterjesztett valóság. Nyilván ezek elég komoly input adatott jelentenek a kliensgépnek, amit bizonyos, hogy nem a CPU fog feldolgozni, hiszen ezek elég számításigényes feladatok. Tehát azt nem nehéz kijelenteni, hogy erős TOC rész kell. Ez jellemzően látszik is a fejlesztésekben, gyúrnak a gyártók az IGP-re, mint az atom, de a CPU-magok számához nem nyúlnak hozzá.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz atti_2010 #32 üzenetére

    Jól írja. A fő gond az ellenállás. Ez okozza a következményeket.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák