Keresés

Új hozzászólás Aktív témák

  • tailor74

    őstag

    válasz HSM #24173 üzenetére

    Ugyanakkor az látszik, hogy az akkori túlbonyolított architektúra a dx 12-vel kevéskènek látszik. Vagyis jobb fogyasztás mellett, jobb hardvert hoztak ki az RX sorozattal.

    Aminek kerekei, vagy mellei vannak, azzal előbb-utóbb gond lesz.

  • Petykemano

    veterán

    válasz HSM #24173 üzenetére

    (#24173) HSM

    Szerintem egyetértünk

    (#24172) VTom
    Nem azért nem indítanak a csúcskategóriában semmit, mert arra várnak, hogy majd a közepes is elég lesz, ha beérnek a konzol-örökségek.
    Hanem mert nincs pénzük. Nincs pénzük jót fejleszteni.
    A) Nincs pénzük fejleszteni, ezért a fejlesztéseiket hozzáigazítják a konzolok fejlesztéséhez, és így az egészet mással fizettetik meg, vagy ugyanazon kétszer próbálnak keresni (egyszer konzol IGP-ként eladva, egyszer pedig saját diszkrét vagy integrált VGA-ként)
    B) Nincs pénzük jót fejleszteni. Van egy irány, ami felé elindultak és talán elvből, de vélhetően forráshiány miatt sem szándékoznak letérni erről azért, hogy egy épp megfelelően jót fejlesszenek. Viszont az idő nekik dolgozik. Jelenleg. Vagy legalábbis jelenleg úgy tűnik. A verseny nincs megnyerve, egyáltalán nincs kőbe vésve, hogy a versenytársak nem lékelhetik meg az elképzelést, vagy nem csinálhatnak ellentámadást.

    Szerintem nem cél, hogy kizárólag mainstream vga-kat forgalmazzanak.
    Ha adott esetben elkészültek volna egy Fiji porttal Polaris alapokon, akkor az dobott volna a fury X teljesítényén kb 40%-ot. Ami szép. De nem érte volna el - akkor - se összteljesítményben, se hatékonyságban talán még az 1080-at se. Ugyanúgy "mindenki" Pascal-t vett volna, aki ebben a szegmensben nézelődik. Elszenvedve a presztízsveszteséget valószínűleg dollárszázmilliókat takaríatottak meg azáltal, hogy nem versengtek egy számukra nem jó terepen, és a későbbi fejlesztést kifizettethetik a MS-tal.

    Ugyanakkor szerintem cél, hogy kisebb egybetokozott lapkákkal oldják meg a magasabb teljesítményt. A multiadapter ezt a célt szolgálja. Azt, hogy a játék két v több gpu-t ne frame-enként váltakozva, hanem a képernyőt akárhány részletre felosztva együtt tudjon használni.
    Ez egyelőre még nem látszik. Még nincsenek ilyen játékok, vagy kevés van. De szerintem a terv az, hogy a VR farvizén elárasztani a piacot 2-4 lapkás gpu-kkal, amire aztán majd szépen megszületnek a multiadapteres adaptációk.

    (#24183) Ren Hoek
    Azt értsd meg és építsd be a gondolkodásodba, hogy az apik nem valami külső környezeti adottságok, hanem az ökoszisztéma része, amire a sikeres üzlethez hatással kell tudni lenni.
    Az nem úgy történt, hogy az AMD álmodott egy nagyot, de hát mivel a környezet, a piac rajta és mindenki máson kívül csak úgy véletlenül mégse úgy alakult, ahogy az AMD álmodta, ezért elszúrták és kukában a helyük. Elszúrták. De nem azt, hogy álmodtak egy nagyot és csináltak egy valamilyen architektúrát. Hanem, hogy az ökoszisztéma bizonyos részeit nem sikerült kellő mértékben, vagy időben vagy irányban befolyásolni.

    Az NV tökéletesen jól csinálta. De nem csak azt, hogy épp annyi fícsőrefjlesztést hajtott végre az architektúrán, ami pont kellett. Hanem azt, hogy az architektúráját és a drivereit és az api környezetet is sikeresen tartotta kézben, sikeresen terelte a számára kedvező irányba.
    A fasat-path-ok beépítését, amiket Abu említett akkor engedheted meg magadnak, ha a másik oldalról biztos vagy, de legalábbis minden megteszel annak érdekében, hogy az api környezet, amire építed az architektúrád gyors és hatékony működését nem fog megváltozni.

    Tehát mégegyszer: azt értsd meg, hogy nem pusztán az történt, hogy az AMD és az nvidia is fejlesztgette szépen a kis architektúráját és az AMD túl nagyot álmodott, mellélőtt, stb, az nvidia meg betalált. Az nvidia is és az AMD is nyilván mindent megtett annak érdekében, hogy a környezetet (api, middleware, stb) az architektúrájának optimális irányba terelje. Ezt korábban az nvidia sikerrel hajtotta végre. Az átmenetnek, ahogy az AMD épp formálja a maga képére ezt a környezetet most vagyunk szemtanúi. Persze a meccs nincs lejátszva. Az, hogy az AMD kikényszerítette, vagy kikényszeríteni látszik egy API fejlődést még nem jelent egyértelműen piaci sikert is. Holnap az nvidia előállhat egy olyan architektúrával, amelyiknek sokkal jobban fekszik a DX12, mint a GCN-nek. Ha politikusokról beszélnénk, azt mondanám: pont ezt fogja csinálni és úgy fogja előadni a DX12-t, mintha ők akarták volna eredetileg is.

    (#24187) HSM
    Szerintem 2005-2006-ban, amikor lerakták a bulldozer első építőköveit még nem látszott az, hogy a többszálúsítás hol és mikor fog kifulladni. Épp akkortájt jelentek meg az első Core2-k. Szerintem racionális volt azt gondolni, hogy 1-2 év leforgása alatt a szoftveres környezet adaptálódik a növekvő magok számához és 2010-2011 környékén már igény lesz a 4-nél több szálat kezelni képes processzorokra. A bulldozer egy olyan olcsósított architektúra volt, ami ugyan nem sikerült jobbra mint a korábbi K10 magok, de alkalmas volt a további skálázódásra. Terv szerint jött volna a Vishera után a 10 magos Komodo.
    Szerintem itt se pusztán az történt, hogy elkalkulálták magukat. Persze a versenytás keresztülhúzta a számításait. Az intel minden tőle telhetőt megtett annak érdekében, hogy a saját architektúrája előnyösebbnek tűnjön. Az bizonyos hogy az intel compilere bizonyos műveleteknél egy nem intel processzor esetén a biztonság és kompatibilitás érdekében inkább nem a hatékonyabb, gyorsabb utasításra fordította a programot. Tette ezt egészen addig, míg le nem bukott és míg behozhatatlan előnyre szert nem tett IPC tekintetében, amikor már az IPC magáért beszélt.

    (#24192) Loha
    A Core2-ig csak frekvencia és IPC volt. Onnantól számított a magszám is és utána már e három tényező optimális arányáról kellett gondolkodni. Ahogy fentebb is említettem, szerintem 2005-2006 környékén jogosan gondolhatta, hogy 4-5 év múlva jobban fog számítani az 1-2 évente duplázható magszám, mint az 1-2 évente 5-15%-ot emelkedő IPC vagy frekvencia.

    (#24209) Ren Hoek
    A GCN egy stratégiai terv. Ami egyelőre nem hozta meg a piaci siker gyümölcsét. Ezzel együtt egyáltalán nem biztos, hogy lenne még AMD, ha akkor nem ezt az utat járják.
    A GCN nagyjából egyidős az első x86 konzolokkal. Abu mintha mondott volna ilyesmit, hogy a GCN tudása soktekintetben azt tükrözi, amit akkor a konzolgyártók kértek.
    Ahogy HSM kolléga is mondta, hogy a GCN-nel együtt házalt az AMD a Mantle ötletével.
    Ahhoz képest, hogy az AMD az egyik legkisebb cég ezen a piacon, elég szépen haladgatnak a stratégiai terv végrehajtásával:
    Fejlesztettek egy nagytudású, rugalmas architektúrát. Megszerezték a konzol piacot hardver tekintetben, amivel jókora piaci részesedést szereztek az architektúrájuknak a gamer piacon. Készítettek hozzá egy apit, ami ma már gyakorlatilag standarddé vált. A konzol piac megszerzésével rákényszerítették a fejlesztőket a GCN ismeretére és a GCN-hez való kódolásra.

    Nem látom gyümölcsözően sikeresnek én se. De vajon hol lenne az AMD a GCN, mint stratégiai terv nélkül? Milyen perspektívák állnának előtte?

    Azzal egyébként egyetértek, hogy az újrakiadott nem csúcskártyákat, amiket csak átcímkéztek, igazán kiherélhették volna. Egy nem csúcskártya semmiképp sem lesz időtálló, akkor meg már inkább fogyasszon kevesebbet, legyen kisebb és olcsóbb.

    Találgatunk, aztán majd úgyis kiderül..

Új hozzászólás Aktív témák