Keresés

Új hozzászólás Aktív témák

  • Zeratul

    addikt

    válasz Loha #9659 üzenetére

    Loha: komolyan, te még hiszel a mikulásban és a húsvéti nyusziban?

  • fatallerror

    addikt

    válasz Loha #9659 üzenetére

    nézd át a teszteket majd olvasd el h mit írtál szerintem :]

    don't tell me what i can't do!

  • Zeratul

    addikt

    válasz Loha #9662 üzenetére

    Akkor nem írnál baromságokat. GK104 ép befér a professzionális OEM keretbe a 225Wba. Baromi nagy értelme lenne megduplázni a méretet hogy utána fele teljesítménnyel tud használni, nem beszélve a jóval drágább áramköri kártyáról, a drágábban előállítható GPUról.

  • Zeratul

    addikt

    válasz Loha #9670 üzenetére

    Azt is tedd hozzá hogy milyen csonkításokkal, egy teljes GPC-t le kellett tiltani.

    [ Szerkesztve ]

  • Zeratul

    addikt

    válasz Loha #9676 üzenetére

    De az M2090 már az újratervezett fermi magra (ami a GFX 570/580 működik) épül jó 1 év múlva mint az eredeti.

  • Zeratul

    addikt

    válasz Loha #9679 üzenetére

    Loha: ép dark silicon jelensége miatt nem lehet korlátlanul növelni a tranzisztorok mennyiségét, mert nem a csíkszélesség csökkentésének arányában csökken a tranzisztorok energiaigénye, hanem sokkal kevesebbel.

    GTX 480/580 3 milliárd tranyó,
    GTX 680 3.5 millárd tranyó 190W tipikus 225W max tdp.

    7790 4.31 milliárd tranyó 210 W tipikus, 250W max tdp.

    GK100 saccolt 6-7 milliárd tranyó 380W tipikus 450W max. Ebből szép dolog lenne 225Wt csinálni.

    GK110 spekulatív pletyi. szerint lenne 550mm2 2304 cuda core ami 6 GPC modul sejtet azt sejteti a 384bites memória vezérlő is, csakhogy 6 GPC modullal 438 mm2 lenne csak a magméret, ha adunk 10 redundáns területet akkor se lenne 500. Látszik hogy aki kitalálták nem tudtak az 550mm2 elszakadni, de belátták a 8 GPC modul irreálisan sokat fogyasztana az 512bit meg nyák szinten is szívás lenne ezért legyen 6 ez olyan 4.8 milliárd tranyó lenne. Azért nem egészen így működik a chiptervezés. A femi négyzetesen szimetrikus felezni lehet, kivenni lehet belőle SMX vagy GPC modult lehet, de úgy hozzá tapasztani nem olyan egyszerű.

    [ Szerkesztve ]

  • gV

    őstag

    válasz Loha #9659 üzenetére

    Sztem is így van. Csak abba kéne bele gondolni aki szerint ez nem így van, h 128GF/s DP teljesítményel az nV mit akar majd evvel kezdeni a HPC piacon. A GF114 tudott 105-öt, a Tesla Fermi 515-öt és hol van ebben az ECC támogatás ami szintén megvan TF-ben? Meg miért csak hónapokkal később jelenik meg? Ha oda is ezt a chipet szánná akkor oda adná el mert ott többett tudna keresni rajtuk. Más kérdés, h ilyen jól sikerült GeForce néven is több a haszon rajta mint azt sztem előzöleg számolták. NV szépen azt csinálja amit a Ferminél 1 (majd megjelenő) nagy chip a professzionális piacra, 1 kisebb az asztalira, útobbi most olyan jó lett, h nem is kell oda a nagy chip a teljesítmény koronához.

  • Zeratul

    addikt

    válasz Loha #9690 üzenetére

    Loha: elolvastad amit írtál, mert elég OMFG kategória, 200% tranyót felhasználni hogy utána 150% legyen kihasználva. :W HPC kategóriában 225W a max, ez kőbe van vésve. A feszültségcsökkentésnek is van határa ép az alacsonyabb csíkszélességen egyre jelentősebb mértékű szivárgó áram. Lehet hogy nV tud 550mm2 chipet tervezni, de TMSC nem tudja legyártani.

    [ Szerkesztve ]

  • siriq

    őstag

    válasz Loha #10010 üzenetére

    Lesz rovid PCB 670-s es hosszu is. Jon majd kesobb a 4GB-s 670. Frekikrol meg mar ugy is tud mindenki mindent(nem overclock). Rengeteg kartyat kiprobaltak mar es 1200-t es folotte mennek(itt is van szoras persze). Valamelyik 13xx-t is. Mar regen a kereskedokenel van. Szoval holnap lehet rendelni, penteken mar meg is erkezik(mar ha olyan helyrol rendeled ami kozel van hozzad).

    Erdekes, hogy itt egy arva hir sem jelenik meg a 670-el kapcsolatban(fooldal).

    [ Szerkesztve ]

    Meg mindig nincs 1000 oras BF3 nev, kozben mar masok is erdeklodnek utana... Mar bevallottan nincs 1000 ora neki... Varjunk Dec 31-ig a Mantle-a.

  • Bici

    félisten

    válasz Loha #10032 üzenetére

    Hát, igen, addig nem is várható árverseny, amíg minden készlet azonnal elfogy.

    Versenyezni akkor szokás, amikor az árcsökkentésből valami haszna származik a cégnek: piaci részesedés növelés, megtartás, vagy magasabb profit, stb.

    Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html

  • tombar

    senior tag

    válasz Loha #10032 üzenetére

    az nv 2017re prognosztizálta dvgak eltűnését. nekem is fájna a szívem miatta, de a nyilatkozatok alapján erre lehet következtetni. mivel mind a 3 fél ezeket kezdte el nyomatni, így vajmi esélye lehet annak, amit írtam... ;)
    másrészt tény és való h nagyon kicsi a tsmc kapacitása, de ez pont kapóra jön az árak mesterséges fenntartásán. ilyen 2 szereplős piacon nagyon nem lehet tiszta versenyhelyzetet vizionálni. az egy másik kérdés h most plusz egy dologra rá tudják fogni a drágítást.
    am gk104en elvileg 3szor akkora haszna van, mint az amdnek a 970/50en. mondjuk azt hiszem ez csak egy túlspilázott szóbeszéd.

    Everybody knows, you dance like you fuck. So let me see you dance!

  • TomiLi

    addikt

    válasz Loha #10039 üzenetére

    Az APU-k úgy fognak tudni teret hódítani játék fronton is, hogy konzol jellegűek lesznek a pc-k. Legalábbis jelenleg - ha jól sikerült kiszűrnöm a korábbi idevágó cikkekből - a pc "sokrétűsége" szab határt a kisebb gépigénynek. (itt azért lehet más csavar is a dologban) Tehát, hogy minden - mindennel kompatibilis.
    Ha egy konzolt nézünk mai szemmel, akkor elég soványka hardver lakozik benne, de közel azonos grafikával futattja ugyanazon játékokat, mint amikhez a GTX, meg AMD VGA szörnyek kellenek.

    Azt már nem tudom, hogy ezt a gyakorlatban hogy kell elképzelni, amikor játékot szeretnék majd vásárolni. Lesz XBOX, PS?, Nvidia, Intel, meg AMD kiadás?

    Bogyóka

  • TomiLi

    addikt

    válasz Loha #10041 üzenetére

    Értem, azt sejtettem, hogy a konzolokba nem APU van, mert már elég régi vasak, az APU "hisztéria" meg nem olyan régi. Vagy legalábbis nem olyan régen van benne a köztudatban.
    Azt nem tudtam, hogy a konzolban közös memóriája van cpu-nak, gpu-nak.
    Elképzelhető, hogy az APU-s Pc-t is így kell majd elképzelni?

    nekik is kell 1-2 év mire belejönnek a kihasználásba Akkor ezért (is) nincs rohamos fejlesztés a konzolokat tekintve.
    Na ez nekem kimaradt a képletből, hogy a pc azért tényleg nagyon sűrűn változik, jönnek az újdonságok, ezt tényleg lehetetlen szoftveresen követni.

    Így viszont már tényleg nem tudom mi fog kisűlni ebből az "APU"-s dVGA-s találgatásból.

    Mondjuk 2017 még azért messze van...

    Bogyóka

  • Abu85

    HÁZIGAZDA

    válasz Loha #10039 üzenetére

    Az NV írt korábban egy tanulmányt a jövő rendszereiről. Ez az Echelon projekt. 2017-re taksálják az egészet. Ebben a tanulmányban ezt írták: "In this time frame, GPUs will no longer be an external accelerator to a CPU; instead, CPUs and GPUs will be integrated on the same die with a unified memory architecture. Such a system eliminates some of accelerator architectures’ historical challenges, including requiring the programmer to manage multiple memory spaces, suffering from bandwidth limitations from an interface such as PCI Express for transfers between CPUs and GPUs, and the system-level energy overheads for both chip crossings and replicated chip infrastructure."

    Szerintem ne az API-val képzeld el a jövőt. A cégek jelenleg vISA-k fejlesztésén dolgoznak. Ez jobb megoldásnak tűnik mint az API. Az NV-nek a PTX ilyen, az Intelnek is van (elég hülye néven), míg az AMD-nek ott a HSA. Az ARM-os cégek, akik nem tudnak a zárt NV és Intel technológia mögé állni a nyílt HSA-t fogják szintén választani. Ezzel lényegében eléggé leegyszerűsödik a helyzet, mivel olyan ez, mint a Java. Ott is van egy Java bytecode, ami maga a vISA. Erre íródik a program, és az alatta lévő hardver cserélhető. Nyilván a Java bytecode az egy eléggé általános vISA, ezt sokkal jobban rá lehet szabni egy-egy hardverre. Továbbra sem lesz az elérés közvetlen, és a programozás direkt, de sokkal jobb lesz, mint egy API-val. Persze az API-kat is lehet fejleszteni tovább. El kell érni, hogy a fejlesztők olyan alacsony szintű hozzáférést kapjanak a hardverhez, amelyet csak lehet kínálni. Ezzel a PC behozhatja a konzolokat, mert jelenleg az API jelentő a legfőbb limitációt a sebességben, és nem a hardver teljesítménye vagy tudása. Ha meg tudnánk élni API nélkül, akkor már régen dobták volna a fejlesztők. Helyzet azonban ennél bonyolultabb. Erről már sok vita folyik, és ez jó, mert a vita hozza a változást. Abban mindenki egyetért, hogy a jelenlegi helyzet nem jó, kell valami olyan megoldás, ami megtartja a fejlesztők számára az egyszerű programozás lehetőségét, és nem kell mindegyik architektúrára külön optimalizálni, de mindez ne jelentsen olyan korlátokat, amiket manapság egy API ad büntiben.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #10046 üzenetére

    Ezek a piacok átfedik egymást. Csak a HPC-be egy egyedi architektúrát nem érdemes fejleszteni, mert nem jönne belőle vissza a befektetett pénz. Az NV is integrálásban gondolkodik, ahogy mindenki. Másban nem is tehetné, mert saját lábra kell állniuk. Ezért fejlesztenek saját processzort. A jövőben a gyártók mixelése igen kicsi szerepet kap. Mindenkinek lesz egy komplett platformja. Erre építik fel a fejlesztéseket is. Itt ugyanaz mindenkinek az elképzelése, nem akarják ők a VGA-k végét, de az üzlet a pénzről szól, ha egy piac nem értékes tovább, akkor át kell csoportosítani az erőforrásokat. Mindenesetre az AMD és az NV sem adja gyorsan fel, de például a fejlesztések olyan irányba tartanak, hogy AMD APU mellett a Radeon VGA valós előny lesz. Ugyanígy 2014-ben a Maxwell APU mellé helyezett GeForce szintén valós értéket képvisel. Nyilván arra kell gondolni, hogy egy 64 bites ARM pointereket kezelő GeForce x86/AMD64-es processzor mellett nem sokat tehet a platform működése érdekében. Képet adni fog, de egyes funkciók nem érhetők majd el.
    Egy vISA-nak nincs célközönsége. Az a fejlesztőknek készül.
    Pedig eléggé egyértelmű. Nekem is fáj, de nem mi döntünk, hanem a cégek. Nekik a pénz számít, és nem a mi elégedettségünk.

    Elég sok energiát fordítanak a PC-s játékok optimalizálására a fejlesztők. Egyszerűen sok a korlát, ami rajtuk kívülálló.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #10050 üzenetére

    A szoftver az nem számottevő, mert a szoftver nem garantálja a nagy vásárlóbázist a VGA-kra. A gyártóknak az kell, hogy terméket vegyetek, és nem az, hogy legyen rájuk olyan szoftver, ami kihasználja.
    Igazából a BF3 semennyit nem lendített. Várták a gyártók, hogy jobb lesz az év vége, de teljesen átlagos volt. A mostani negyedév is azért volt jobb, mert nagyobb lett az ASP az új generációval. Az eladások viszont nem ugrottak meg.

    Nagyon egyszerű a helyzet. A gyártóknak jelzés kell, hogy van a VGA-kra igény. Ha most mindenki elmegy és vesz két új VGA-t, akkor az elég jó jelzés. Ha jön egy új Metro, akkor az nem jó, mert attól még nem biztos, hogy a felhasználó beruház egy új termékbe. Sőt, az is lehet, hogy elege lesz a folyamatos beruházástól, és vesz egy konzolt.

    A gyártói kimutatást hagyjuk. Mit mondjon az NV, hogy rossz az egész piac? Ez a befektetőknek szól, amíg a Tegra nem indul be. Beleszámolod a farmolást és a facebookos játékok reklámjaiból származó bevételét, és rögtön a konzolok fölött vagy némi optimizmussal a jövőre nézve, csak addig az AAA címeknél a Call Of Duty legújabb részéből a PC-s eladások a teljes eladás 1%-át teszik ki. Nyilván ezt elfelejtették megemlíteni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #10052 üzenetére

    Ha az valóban így lenne, akkor sokkal jobb negyedéves eredményeknek kellett volna jönni. Ezzel szemben kaptunk legutóbb az NV-től 60 millás nyereséget (egyszeri kiadások nélkül), melyben az Intel bánatpénze ~80 millió. Enélkül az NV veszteségben lenne. A játékokkal való kombinálás tipikusan olyan kijelentés, amit nem lehet ellenőrizni, ezért be lehet dobni, mert logikus. Aztán mire a statisztikák elkészülnek a JPR-nél az eladások csökkenéséről, már senki sem emlékszik erre. A tény pedig az, hogy 2011-ben ~30%-ot esett a VGA-piac. Erre független statisztika van.
    Nagyon nagy tévedés. Te vettél a Metro 2033-ra két GTX 480 SLI-t a megjelenéskor?

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #10057 üzenetére

    Ez a probléma, hogy jelenleg nincs semmi, amiért VGA vásárlásra adná a fejét a piac. Ezért csökken az eladás. A probléma persze nem a programokban keresendő, vagy magában a VGA-kban, mert a asztali PC-k eladása is meredeken csökken. Ahol nő az eladás, az a mobil piac, és a kisméretű, vagy monitorba szerelt PC-k. Ezt a cégek látják, és a fejlesztéseket is ide fogják koncentrálni.

    (#10058) gbors: Nem tudhatták, de sejthették. Az biztos, hogy egy ~600 mm2-es lapkát képtelenség olyan feltételek mellett gyárni, mint amit most a TSMC-vel kötöttek. Ahhoz, hogy legyen rajta nyereség 1500 dolláros árcédula kell minimum. Ha a kihozatalt is rászámolod a mennyiségre, akkor 2000 dolláros ár is kellhet. Ez a HPC- és a professzionális piacon nem gond, de egy GeForce-ért senki sem fog ennyit adni.
    Egyébként annyira radikálisan nem gondolkodik már senki, hogy na most megverjük őket. Vannak növekvő piacok, amikre építeni kell. A GCN-nek meg van a helye az integrációs projektben. A kis Kepler architektúra megy a Tegrába, míg a nagy Kepler profi célra jó, és fejleszthető tovább az NVIDIA integrációs projektjébe. Minden döntést amit meghoztak a cégek, azért tették, mert az adott architektúrával egy értékesebb piacra akarnak betörni. A VGA-k azok vannak, de a pénz már nem itt van. El lehet persze adni a termékeket, sőt jó teszt a VGA-piac, hiszen valós körülmények között látod, hogy mennyire működik a rendszer, de semmi több. A tervek túlmutatnak ezen a szegmensen.
    Másképp mi értelme lenne belerakni egy csomó pénzt, ha nem remélnének tőle eladást. :) Azt persze nagyon nehéz kideríteni, hogy ennek tényleg volt-e valós eredménye, de igazából lényegtelen is. Attól, hogy valaki SLI-t vesz, még a tömeg marad IGP-n, így sok lényegi szempontja ezeknek az akcióknak nincs, ugyanakkor minden alkalmat meg kell ragadni az NV-nek, mert nekik már/még nincs IGP-jük, így a baráti gépigényben jelenleg egyáltalán nem érdekeltek.

    (#10059) Löncsi: A kisebb fejlesztések jellemzően azért menők, mert nincs benne akkora kockázat, mint az AAA címekben. Budget az ár, és budget a befektetés is. Persze ettől lehet nagyon jó a játék, és sikeres is, sőt, jellemzően azok, de ugyanúgy benne van a bukás lehetősége. Ha ezek kerülnek előtérbe, akkor az csak a kisebb kockázat miatt lesz.

    (#10072) Löncsi: A tesztprogram az specifikus környezetet teremt. A valós környezet teljesen más. Ott nem lehet mesterségesen felépíteni egy terhelést. Kivéve, ha ez a cél, lásd Crysis 2, de ezzel ez is teljesen használhatatlan lesz a teljesítmény mérésére. Korábban már leírtam, hogy ezek a helyzetek mesterségesen születnek. [link] - rendszerit az a jobb, ahol az adott mesterséges terhelés jobban fekszik a hardvernek. Tessmark és Heaven esetében az NVIDIA megoldása, míg a Crysis 2 és a 3DMark 11-ben az AMD GCN tesszellátora.
    Az NVIDA tesszellátora rendszerint akkor teljesít jól, ha kevés az objektum a jelenetben (Tessmarkban egy azaz egy darab), vagy akkor, ha az adott tesszelláció kevésbé reagál jól a vertex re-use teljesítményre. Az AMD tesszellátora akkor teljesít jól, ha sok az objektum a jelenetben, és a vertex re-use funkció jól hasznosítható. A faktorra lebontva, az AMD úgy 1-20 faktorig jelentősen gyorsabb, míg 20-40 faktorig egál, majd 40-64-ig jobb az NV. Raszterizálás mellett persze ez erősen változik, mert nem csak a tesszellátor számít, hanem a raszter motor teljesítménye is. Itt mindegyik rendszer büntizik elég sokat, így 1-30 faktorig az AMD teljesít jobban, ám magasabb faktorszám mellett a raszter hatékonysága 50% alá esik, vagyis kivégzi a teljes tempót. 50 faktor felett 10% is lehet a hatékonyság, ami vicc. Ezzel egyetlen GPU sem tud mit kezdeni, limitáló lesz a setup oldalon a rendszer. Innentől mindegy, hogy mi mennyire gyors, mert a limit a működésben születik. Az AMD tesszellátora még annyiban bekavarhat ezekbe az elméleti helyzetekbe, hogy képes felületeket menteni, vagyis 40-64 faktor mellett egyszerűen elment részeket, és amíg az hasznosítható, visszatölti az L2 cache-ből, vagy a VRAM-ból, ha jobb oda lementeni. Itt az AMD szintén óriási előnyre tesz szert, mert nem számolja újra minden képkockánál a bonyolult felületeket, amivel felszabadul az erőforrás a többi feladat feldolgozására. Jellemzően ezt az AMD nem alkalmazza szintetikus benchmarkban, ha a fejlesztő megkéri a céget. Nyilván ez a megoldás alapvetően ellehetetlenít minden szintetikus mérést pl. a tessmark esetében, mert nem fog a rendszer számolni. Egyszerűen az első képkocka után lementi, és visszatölti a VRAM-ból a teljes objektumot. Gyakorlatilag nem dolgozik az első képkocka után semmit.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #10081 üzenetére

    Ez bizony valóban nagyon nagy probléma, mert a nyereség nagy része onnan jön. Ezt kompenzálná az egyre drágább árazás a combosabb VGA-k esetében.
    A JPR anyaga az nem csak a VGA-król szól, hanem mindenről amin játszanak, kezdve az egerektől, a gémer monitorokon át, a hangszórókig, sőt még a tápok és a házak is. :) Egyébként ebben benne vannak a processzorok is.
    Ezt nekem is nehéz feldolgozni. Én is rajongok a VGA-kért, de a tények azt mutatják, hogy a piac csökken. :(

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • TESCO-Zsömle

    félisten

    válasz Loha #10081 üzenetére

    Amit írsz, abban az a katasztrofális, hogy a rengeteg alsó kategóriás cucc tartja al acsonyan a felső ház árait. Ha teszem azt HD77xx alatt eltűnne az összes, akkor olyasmi árazásra lehetne számítani, mint most a Quadro vagy FireGL kártyáknál. Mert akkor azoknak a kártyáknak kellene kitermelnie a fejlesztési költséget és a hasznot.

    Löncsi: Csak annak, aki szereti a VGA-kat meg a "legózást". Én modderként úgy érzem, hogy ezek kikopásával nagyot lépünk előre, de egyúttal szegényebbek is leszünk kicsivel. Egyre kevesebben ismerik meg azt az élményt, mikor az ember összeválogatja a HW-eket, hazaviszi, egyesével kicsomagolja őket, mintha karácsony lenne, és egy kisebb szeánsz keretein belül, nagy gondossággal összerakja a számítógépet.

    [ Szerkesztve ]

    Sub-Dungeoneer lvl -57

  • Löncsi

    őstag

    válasz Loha #10094 üzenetére

    Te meg az APU-k ért rajongasz...

    Vagy csak itt erőltetik mindenhol, hogy vedd meg, és nyomják le a torkodon. :DDD

    Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28

  • Löncsi

    őstag

    válasz Loha #10096 üzenetére

    2012 dec 21 világvége, nem érdemes erre alapozni. :DDD

    Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28

  • TESCO-Zsömle

    félisten

    válasz Loha #10096 üzenetére

    Úgy, hogy a GPU és a CPU egyesítése sok szűk keresztmetszetet von ki a képletből. Emellett az API-t is jól meg kell kopasztani, átalakítani, esetleg lecserélni, hogy a programozók a lehető legközvetlenebb elérést kapják a HW-hez a kompatibilitás fennmaradása mellett.

    Hatásfok. Azt hiszem ez a kulcsszó.

    Jobb hatásfokkal, kisebb teljesítmény is elég jobb végeredmény eléréséhez.

    Sub-Dungeoneer lvl -57

  • fatallerror

    addikt

    válasz Loha #10094 üzenetére

    erre csak azt tudom neked mondani h semmi sem lehetetlen, a fejlődés üteme sem azonos. gondoltad volna 5 évvel ezelőtt h iPad-en ilyen grafika lesz? rohamosan fejlődnek ezek a dolgok és semmit sem jelent h most 20 fps-el megy vmi közepes beállítással és nem úgy lesz h hopp 2017 és bedaráljuk az összes vga-t : DD
    a valóságban nem bedarálni fogják őket hanem a skynet az összeset ellenünk fordítja

    én is szeretem időről időre összelegozni a gépem de nem halok bele ha ez változik, nyitott vagyok az új dolgokra, a lényeg h legyen mivel játszani és megnyugodhatsz h a játékélmény (vizuálisan értem) javítása a célja mindenkinek nem a csökkentése tehát biztos h nem kell 720pben low-on játszanod v mit írtál

    don't tell me what i can't do!

  • Abu85

    HÁZIGAZDA

    válasz Loha #10094 üzenetére

    Ilyen árak mellett nem gyárt senki sem veszteséggel, de itt arról is szó van, hogy a fejlesztések költségesek. Ezeket a költségeket ki kell termelni. Jellemzően ezt a VGA-piac a 100 dollár alatti szintből termelte. Nem ezeken volt a legtöbb haszon egy-egy eladott terméket nézve, de annyival több olcsó VGA megy el a drágábbak mellett, hogy összességében a legtöbb nyereség innen származik. Ezért veszélyes az IGP. Mindenki mondja, hogy nem veszélyes, mert nem lesz egy IGP olyan gyors, mint egy csúcs-VGA. Nem is lesz, de arra bőven elég, hogy kiüsse az igényt a VGA-piac 75%-ára, vagyis a 100 dollár alatti rétegre ... és ez jelenti a nagy problémát. Attól senki sem fél, még a gyártók közül sem, hogy a következő kör IGP-i befogják a 680-at, vagy a 7970-et, attól rettegnek, hogy a 100 dollár alatti szint teljesítményét masszívan hozzák. És a Trinity hozza is. Itt előjön a fejlesztés megkérdőjelezése is. Lásd most is a GT 620-640-es GeForce-okat, melyek a másfél évvel korábbi termékek átnevezései, vagyis sebességben semmivel sem többek. Nyilván van két lehetőség. Törődjünk bele, hogy az IGP-ra nincs gyógymód, vagy fejlesszünk ide egy új terméket, mely gyorsabb lesz ugyan, de kérdés, hogy megéri-e ezt a gyártóknak implementálni. Ha nem, akkor ez a termék kidobott pénz. Ezért áll hozzá most az NV óvatosan ehhez a fejlesztéshez, mert nem látják biztosítottnak, hogy az új IGP-k mellett megveszik a gyártók az új terméküket. Nyilván ilyen esetben az átnevezés egy nagyon gazdaságos szempont, mert anyagilag minimális teher, így az sem baj, ha nincs rá igény. Alig került pénzbe a "fejlesztés". Ezzel persze óhatatlanul erősödik az IGP-k helyzete, mert a másfél éves termékeket nem nehéz verni.
    Nyilván bele fog kerülni, amire szükség van. Ezt nem is vitatom, csak felhívtam a figyelmet, hogy ez nem csak a dGPU-król szól, hanem mindenről, ami "gémer".
    Biztos fel tudod, csupán megállapítottam, hogy ez egy nehéz helyzet. Én is rajongok a VGA-kért, mert ez érdekelt régebben is a legjobban. De a tényeket nem lehet figyelmen kívül hagyni.
    Az APU-kért nem rajongok, de kétségtelen tény, hogy skálázási lehetőség ezeken van. Nem akarnának itt a cégek, és a programozók sem APU-kat, ha a processzor oldaláról való skálázás megoldható lenne. A homogén többmagos processzorok bevezetése is kényszer volt. Az hozta elő a helyzetet, hogy egy régóta működő szabály (Dennard Scaling) kezdett megfenekleni. Ezért nem lett végül GHz verseny, pedig elméletben az lenne a legjobb, ha 30 GHz-es egymagos procikkal nyomulnánk ma. A gyakorlat azonban a fizika törvényeitől függ, így meg kellett lépni a skálázódás érdekében a több processzormagot. Ezzel elvoltunk addig, amíg Dennard Scaling teljesen megfeneklett. Most tartunk ott, hogy a lapka teljesítményét már nem lehet úgy növelni, hogy azt az új gyártástechnológia megoldja. Az egyetlen mód erre a pJ/FLOP arány csökkentése maradt. Erre két mód van. Az egyik a Pollack-féle szabály alkalmazása, ami annyiból áll, hogy egyre több egyszerűbb magot helyezel a lapkába. Ezzel a processzor egy szálon mért teljesítménye nagyon csökken, de a több szálú nagy nő. A másik mód a heterogén többmagos processzorokban rejlik. Ezzel a processzormagok teljesítményéhez nem, vagy csak picit kell hozzányúlni, míg a skálázást az IGP-k biztosítják, melyeket fel kell készíteni az általános számításra. Egyelőre úgy néz ki, hogy minden cég az utóbbi utat választotta. Nyilván érthető, hogy senki sem tartja szerencsésnek az egy szálú teljesítményt Atom szintre butítani.

    Az új konzol generáció inkább ártani fog a VGA-knak. TESCO-Zsömle jól mondja, hogy a legtöbb probléma az API-ból ered. Itt vesztik a PC-n a programok a legtöbb teljesítményt. Erre már reflektált Richard Huddy (akkor még az AMD-nél dolgozott, most már az Intelnél) [link], és John Carmack is beszélt erről [link]. Ez nagyon beszédes: "A Rage-et a PC-n elsősorban a textúrák frissítése hátráltatja. Konzolon a hardver és a memória direktebb kezelése következtében egyszerűen lehet frissíteni egy adott pixelt, de a PC-n masszív rutinokat kell bevetni, hogy a frissítés végbemenjen, és mindez – Carmack szerint – több mint tízezerszer hosszabb időbe kerül, ami természetesen nagyon lassítja a feldolgozást." Ezek azok, ahol a probléma keletkezik. Erre a megoldás a virtuális ISA bevezetése, vagy az API-k esetében az opció a hardverhez közelibb programozásra. Igazából mindkettőt jó lenne erőltetni, mert több lehetőség nem árt egy problémára.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #10103 üzenetére

    Az elemzők gazdasági szakemberek. Nem látják a technikai oldalon keletkező problémákat. Még mindig úgy gondolnak az IGP-kre, hogy grafikára van, pedig nem azért költöztek be a processzorokba, hogy grafikát számítsanak.

    A memória-sávszélességre ott a 2.5D stacked memória. Ilyen lesz a Haswellen és a Kaverin.
    Továbbra sem érted meg, hogy nem a lapkák teljesítményével van a probléma, hanem a szoftveres oldalon korlátozó az API. Még az Intel Sandy Bridge-be épített IGP-je is gyorsabb bármelyik konzolos rendszernél. A gond az, hogy itt az API-n keresztül dolgoznak vele.
    Az IGP-nek a processzorban gyorsabb összeköttetése van. De ami fontos, hogy a késleltetés a CPU és a VGA között 300-400 ns, míg az IGP és a CPU között 2-6 ns.

    Ez amúgy nem úgy lesz, hogy holnapra csak úgy eltűnnek a dGPU-k. Egy hosszú folyamat ez. Most még csak azt látjuk, hogy statisztikailag esett 2011-ben a VGA-piac 30%-ot. Ez már egy kezdete ennek az átalakulásnak. Ez évről-évre hasonló lesz bár a mértéke változó lehet. 2012-ben szerintem nem lesz ilyen drasztikus -30%, de továbbra is visszaesés várható. Nagyjából -5-10%. 2014-ben már megkezdődnek az erős platformtervek, vagyis a dGPU már nem egy extra gyorsító lesz, a processzorok mellé, hanem a platform konkrét kiegészítője. Ez majd egy jó változás lesz a piacnak anyagilag, mert a Radeonok összes szolgáltatását AMD APU-val, míg a GeForce-okét NVIDIA APU-val tudod igénybe venni. Ezzel az AMD és az NV a saját rendszereihez köti majd a fejlesztéseket, vagyis ha minden funkciót meg akarsz kapni, akkor gyártón belül kell, hogy maradj. Persze biztos, hogy működni fog Intel proci mellett is, csak nem lesznek elérhetők az extrák. Például az NVIDIA az ARM felé tart. Világos, hogy az grafikus processzor oldaláról is az ARM-hoz szabják a fejlesztéseket. A Radeon az sötét ló, mert a GCN architektúrát az AMD az AMD64-hez szabta, amit az Intel támogat, de szükség van itt a HSA kezelésére is, ahova nem hiszem, hogy az Intel beállna. Persze az elméleti lehetőség megvan.
    2016 környékén majd eljutunk oda, hogy a VGA-k jelentőségi szintje igen gyér. Gyakorlatilag a hangkártyák szintjén fennmaradt, de ez kevés. 2017-ben pedig lehet hozni döntéseket. Ha ezek az igények megfelelőek, akkor lehet tovább fejleszteni, ha nem, akkor el lehet dobni az üzletágat.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #10105 üzenetére

    A stacked memória lehet több is. Mögötte pedig ott a rendszermemória.
    A VGA nem olyan rendszer, aminek korlátlan hozzáférése van az adatokhoz. Sőt brutálisan korlátozott, mert a driver mögé van rejtve a memória. Mindig szüksége van a processzorra. Ezen lehet okosítani, de teljes hozzáférést még platform szintjén sem lehet biztosítani úgy, hogy a processzort kizárd a munkából.
    [link] - érdemes elolvasni ezt. Sok dologra fényt derít, hogy hol vannak a limitek.

    Az API jelenti a mai tempóban a legnagyobb problémát. Köze van mindenhez.
    Továbbra sem fogod fel, hogy miből él a VGA-piac. Nem abból, hogy pár ember vesz egy-két 500 dolláros VGA-t, hanem abból, hogy milliók vesznek 100 dollár alattit. Ha ez nem létezik, akkor nincs esély visszahozni a fejlesztésbe ölt pénzeket. Ezért láthatsz a cégeknél olyan radikális változásokat, mint manapság. Lásd az NV-nél az ARM processzormag gyors tervezése, vagy az AMD-nél a dGPU hozzákötése a rendszerhez.
    Én értem, hogy legózós szemmel nagyon nehéz elfogadni azt az irányt, ami a cégek elképzeltek, de ezen nem tudunk változtatni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #10141 üzenetére

    A GK110-et nem fogják lehozni GeForce-ba. Csak a legdrágább Tesla és Quadro épül majd rá úgy 6000-8000 dollárért.
    Természetes, hogy az NVIDIA jövőképe nem változott meg, csak jelenleg fontosabb a Tegra felfuttatása mert ez a cég jövője a konzumer vonalon. Majd ha eljut az NV a Maxwellig, ami a saját APU-juk, akkor újra előtérbe kerül az erős compute, és a GPU-k helyett a platformra helyeződik a hangsúly is. A Maxwell viszont 2014-ben jön. Addig a Tegra az első, amibe fejleszteni kellett egy tranyókímélő, jól skálázható, alacsony fogyasztású rendszert (a mostani GeForce 7 alapokra épülő ULV GeForce már nem versenyképes, és a jövőben ez rosszabb lenne). Ezek az igények azzal jártak, hogy az NVIDIA beáldozta a komplex kódok gyors futtatásának lehetőségét, de ennek a Tegra esetében nincs túl nagy jelentősége. Persze nem jó, hogy a GK104-et számos komplex OpenCL programban elintézi a GF110, illetve messze lehagyja a compute irányt vett Radeon, de bevállalható, ha ez kell a Tegra sikeréhez. Konzumer szinten a Tegránál most semmi sem fontosabb.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • tombar

    senior tag

    válasz Loha #10145 üzenetére

    azért a dgpu piac meglehetősen szűkül, szal a gef, már csak másodlagos. átültehették volna, de mit nyernek vele? max kisebb a fogyasztás, de a skálázhatósága ugyan olyan nehézkes lenne sajnos :S a gk az egyszerű, jól skálázható felépítése miatt kell az nVnek. muszáj a tegrás cuccokat nyomatni, azt veszi a birka nép. szerintem ha lenne komoly piaca a dgpu kártyáknak, akkor akkor simán megoldható lenne a gk 110 felsőházas szereplése. most sajnos az a jövőkép h egy 10 collos cuccon kell játszanod (vagy marha drága nagy kijelzős tévén), amit majd egy másik gép kiszámol neked valahol jó messze tőled. :S

    Everybody knows, you dance like you fuck. So let me see you dance!

  • Abu85

    HÁZIGAZDA

    válasz Loha #10145 üzenetére

    Maximum, azok utalnak rá, akik nem értik, hogy abban a rendszerben legalább 1,5-2 milliárd tranzisztor felesleges játékra. Totál értelmetlen kiadni egy olyan GPU-t, amiben dedikált DP feldolgozók vannak. Egyszerűen rengeteg helyet foglal, és haszna nulla. Van még benne egy elég komoly ütemező is, aminek haszna a HPC-piacon kívül teljesen lényegtelen. Szóval ilyen formában ezt GeForce-ba nem fogják kiadni.

    Másra nem éri meg gyúrni. A Tegra a legfontosabb most a cég életében, mert az az egyetlen konzumer termékvonaluk, mely értékes és növekvő piacra nevez. A Fermi azért volt gáz, mert nem volt skálázható. Volt egy ideális szint, amit a GF104 és 114 képviselt. Ez nagyjából jól működött, de felette túl nagy volt, alatta pedig túl lassú. Ez skálázhatósági probléma. Ezért is változtatták meg az ütemezést a Keplerben, hogy ezt a gondot áthidalják.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • tombar

    senior tag

    válasz Loha #10148 üzenetére

    ha jól tudom közép és felső kategória az eladások (kb.) 30%át teszik ki és a jó részét akis nyomi alsókatos kártyák. azt elhiszem h kínában nagy lehet a vásárlói piac, de gondolom ott sem a felsőházat veszi mindenki. ezért jó a gk, mert franyán skálázható. másrészt ha a világtrend az integrálás felé viszi a piacot, akkor egy idő után a kínai piac is oda fog fordulni. mondjuk ehhez kellene tudni a potenciális piac erejét. mondjuk jó lenne ha lenne formáló hatása és akkor talán a dgpuknak is komolyabb szerepe lenne az apuk mellet.

    Everybody knows, you dance like you fuck. So let me see you dance!

  • Abu85

    HÁZIGAZDA

    válasz Loha #10148 üzenetére

    Teljesen mindegy, hogy mire veszi, ha a piac 70%-ának max. 100 dollárja van egy VGA-ra. Ez a réteg adja a piac legnagyobb nyereségét. Nyilvánvaló, hogy egy-egy olcsó kártya eladásán kevesebb a haszon, mint egy-egy csúcskártyáén, de az eladási volumen különbsége óriási, és ha ezt beleszámolod, akkor összességében az olcsó termékekből lesz több nyereség. Ahogy esik ki ez a nagy volumen úgy fog nőni generációról-generációra a VGA-k árazása, mert az üzletágon belül a kicsikből kieső nyereséget a még eladható termékeken kell kompenzálni. Ez persze oda vezet, hogy még kevesebb VGA kerül eladásra, ami további áremelkedést is hoz. Természetesen az IGP ki tudja váltani ezt a részt, de az NV-nek pont az a problémája, hogy nincs IGP-je, amivel a piac nagy részébe nevezni tudnának. Ez majd megváltozik, mert tervezik a saját processzorukat, és arra építik a Maxwellt.
    Ennek az egész platformosításnak lesz majd egy jó hozománya is, ami a VGA-k árában meg fog látszani. A VGA-piac továbbra is alacsony hasznot termel majd, de azzal, hogy platformként tekintenek a cégek a fejlesztésekre előtérbe kerül a nagy haszonnal kecsegtető APU eladása is. Az aktuális tervek is erről szólnak. Az NV célja, hogy GeForce mellé NV APU-t vegyél, az AMD-é pedig, hogy Radeon mellé AMD APU-t. Ezt direkt termékkapcsolással nem tehetik meg, mert az törvénytelen, illetve az alapvetően nem baj, ha Intel holmi mellé is veszel VGA-t. Ellenben a cél egyértelműen a platform erősítése, éppen ezért ha platformot raksz össze NV APU+GeForce vagy AMD APU+Radeon, akkor extrákat kapsz. Például olyat, hogy AMD mellett teljes lesz a HSA, míg GeForce mellett a PTX funkcionalítás. Az NV-nek még ott a PhysX is. Egyszerűen nem tart semeddig platformhoz kötni. Csak akkor lesz elérhető, ha teljesen NV-s a rendszered. Ugyanezt már láthatod az AMD-nél, ahol teljesen AMD-s géppel más vezérlőpultot kapsz. Ugyan itt még csak a Steady Video az extra és a CPU paraméterezése, de ezek a jövőben sokkal szigorúbbak lesznek. Ezzel a VGA-k ára csökkenhet, mert teljes funkcionalításhoz úgyis platform kell, vagyis nem baj, ha alacsony rajtuk a nyeres, a platformon már összességében magas lesz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #10150 üzenetére

    Először is kezdjük ott, hogy a GK110 tömeggyártása 2012Q4-ben kezdődik meg. Addig a kihozatalról semmit sem tudunk. A másik az, hogy két darab GK104-nél semmi esetre sem gyorsabb, ellenben a gyártása drágább lenne. Lehet csinálni a GK104-nél nagyobb GPU-val GeForce-ot, de biztos nem a GK110 lesz az, mert annak semmi értelme.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #10156 üzenetére

    Nem csak hardcore gamer van, hanem casual is. Sőt, a casual többet ér, mert sokkal többen vannak. Irodába senki sem vesz már dGPU-t.

    Az architektúra csak egy eleme a rendszernek. Win RT lesz ARM-ra. Nyilván mire itt a Maxwell már lesz új Win is, vagy ha nem is új, akkor egy jobban kigyúrt. Nem marad a Win RT örökké a kezdeti szinten. Az biztos, hogy az NVIDIA-nak nincs x86/AMD64 licence, vagyis csak olyan cGPU-t képes készíteni, ami az ARM-hoz köthető architekturálisan, erre van licencük.

    Az APU-t nagyon rosszul látod. A skálázhatóság hívta életre a koncepciót, mert semmi esélyed skálázni a homogén többmagos rendszert, csak ha kiheréled az egy szálú teljesítményt. Ha csak az AMD érdeke lenne ez az egész, akkor az Intel nem állt volna elő az Ivy Bridge-dzsel és az NV sem tervezne APU-t. A valóság az, hogy a heterogén többmagos rendszerekben az összes cég hisz, és nem csak az AMD. Hozzájuk csak azért kötik az APU-kat, mert az AMD látta meg először a skálázhatóság problémáját, és elsőként is reagáltak rá.

    Hihetsz elméletekben, hogy az NV eredetileg így meg úgy tervezte, de ebben az esetben megvalósíthatatlan dolgokban hiszel. Nincs értelme egy ekkora lapkát lehozni erre a piacra, mert tranzisztorok milliárdjai állnának benne kihasználatlanul a gyártás pedig vinné a pénzt. Jobban megéri tervezni ide egy másik lapkát, mert a GK110 alkalmatlan a versenyre. Ezt a HPC-re tervezték és ennyi. Többet nem is akarnak, mert a mérnökök látják, hogy az extrák a GeForce piacán korlátokat is jelentenek.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #10158 üzenetére

    Ez egyáltalán nem így van. Pont, hogy fordítva mondják a gyártók. Egyre több a Casual gamer PC-n, és ezt hivatott alátámasztani, hogy egyre több a budget kategóriába szánt játék is. Pont, hogy a hardcore réteg kezd kikopni.

    Valóban nem, de valahol el kell kezdeni. Ha itt az ARM, akkor az új programokat arra is lefordítják. Ezzel nem mondanám teljesen esélytelennek. Az NVIDIA mindent meg fog tenni ezért, mert a jövőjük függ ettől a rendszertől. A Microsoftra biztos számíthatnak.

    Az Intel az arról híres, hogy az AMD-t szokta követni. :)) Nem, itt senki nem követ senkit. A cél, hogy a gyártástechnológia problémák mellett is megőrizzék a gyártók a lapkák skálázhatóságát. Erre van a heterogén módon programozható lapkák koncepciója. Ezt nem az AMD találta ki, ez egy logikus evolúciós lépcső. Olyan amilyen a többmagos processzorok lépcsője volt pár éve.
    Szerinted a Larrabee projektbe beleölt dollármilliárdok mire szolgáltak? Az Intel sem gondolta az elején, hogy két implementációból kettő a kukában végzi. Nem olyan egyszerű egy GPU-t összerakni, azért haladnak lassan.
    Az NV-nek rengeteg választása van/volt, de akarják a PC-s piacot, így ők is integrálnak. Ez egyébként logikus. És ez nem a HPC-piacnak szól, hanem a konzumer szintnek is.

    A pletykákra ne építs, mert az gyártók mindig is azt mondták, hogy a GK104 lesz a GeForce csúcslapkája. Márciusban még nem számoltunk be róla, de az NV elmondta nekünk, hogy lesz ennél nagyobb lapka a Teslába, de nem GeForce-ba. A GK110 GeForce-ban hit kérdése. A valóságban az NVIDIA nem fog egy ilyen hibát elkövetni elég volt nekik a GF100/110.

    A GTX 560 Ti 448 eleve egy limitált sorozat volt. Csak azért született meg, mert volt pár lapka, amit meg kellett venni, de nem volt eladható GTX 570-be és 580-ba. Ezzel vagy kiadják egy termékbe és eladják, vagy kidobják őket a kukába, világos, hogy ha már benne áll a pénz, akkor legalább egy részét hozzák vissza. Emellett érdekes infó, ami nincs megerősítve, de állítólag 40 nm-en a GF100/GF110 kihozatala sosem lépte át a 30%-ot. Nyilván nem véletlenül ragaszkodott az NV a jó lapkánkénti fizetéshez, miközben a 40 nm 2011-ben már elég olcsó volt, és jó kihozatal mellett olcsóbb lett volna a waferenkénti fizetés. A 28 nm teljesen más. Más a fizetési modell, és más a gyártástechnológia. Minden egyes tranyó számít, amit meg lehet spórolni a tervezéssel. Mint mondtam lehet a GK104-nél nagyobb lapkát csinálni, de pont a GK110-et kiadni nagy hiba, mert abban rengeteg felesleges dolog van. Emellett a Teslába nagyjából 600 MHz-es lesz a termék. GeForce-ban 300 wattban tudnának hozni egy 750 MHz-et. Ezzel kb. gyorsabb lenne a GK104-nél úgy 25-30%-kal. Egyszerűen nem éri meg, nincs egy üzleti szempont sem a kiadás mellett, ellenben a kiadás elleni szempontokat lehetne sorolni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Löncsi

    őstag

    válasz Loha #10197 üzenetére

    Vágom, de az nV oldalon megnézni se tudtam, folyamatosan bufferelt. De YT-n már fent van, ott meg tudtam nézni.

    Valóban unalmas kissé, a HW-n kiagyaltak pár tanácsot is erre. :DDD

    Mivel sokak szerint ez a szerencsétlen techdemó brutálisan unalmasra sikerült, itt van pár ötlet az NVIDIA-ának az események felpörgetésére:

    - ÁÁÁááÁáá - sikollyal a tündérke lezuhan a fonott hinta alatt elterülő kacsaúsztatóba

    A tündérke egy ötletes varázslattal kiegyenesíti a fonott kötelet és sztriptíz-kötéltáncba kezd

    A tündérke gyomrához kap, arca eltorzul és nagy kínnal átalakul egy Prométeusz Idegen formájába, majd sátáni kacajjal beleröhög a néző képibe és vadul elröppen vízidisznót vadászni

    A Tündérke előkap egy cseresznyével teli tálat, zabálni kezdi. A magokat az alatta hörgő SzőrVadmalacok képibe köpködi, közben nagyokat kacog.
    Ám a végén a Vadmalacok győznek, mert hülye bimbó torkán akad egy cseresznyemag, amibe az idegesítő kis ROHADT lonya jól belefullad!!

    Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28

  • FireKeeper

    nagyúr

    válasz Loha #11185 üzenetére

    tán nem szabad? :U

    steam, GOG, uPlay: @petermadach || HotS: PeterMadach#2675 || Xperia 10 V || Ultrawide & SFF masterrace || Unofficial and unpaid VXE R1 shill

  • Oliverda

    félisten

    válasz Loha #11185 üzenetére

    Hangsúlyos marad a $200 feletti kártyáknál, mivel jelenleg ebbe az irányba tendálnak a játékfejlesztések.;];];]

    [ Szerkesztve ]

    "Minden negyedik-ötödik magyar funkcionális analfabéta – derült ki a nemzetközi felmérésekből."

  • FireKeeper

    nagyúr

    válasz Loha #11187 üzenetére

    attól, hogy nem fogom megvenni, még érdekelhet, hogy mit tud. lehet hogy meggondolom magam és mégis megveszem. a saját magam ellensége nem vagyok :D

    steam, GOG, uPlay: @petermadach || HotS: PeterMadach#2675 || Xperia 10 V || Ultrawide & SFF masterrace || Unofficial and unpaid VXE R1 shill

  • Abu85

    HÁZIGAZDA

    válasz Loha #11185 üzenetére

    Mindegy, hogy merre mennek a VGA-k. Az érdekel minket, hogy merre mennek a játékok.
    Ha az NV erős compute kártyát készít, akkor azt készít. Ez logikus is a DX11.1 iránya mellett.

    Arra vajmi kevés esély van, hogy a GK110-ből GeForce legyen. Sok a teljesen felesleges funkció a lapkában, és nagyjából jó, ha 5-15%-kal gyorsabb egy GTX 680-nál. A GK104-et egy újabb tervezésű lapka váltja, mely kisebb és gyorsabb, mint a GK110. Nem lesz gyorsabb a HPC környezetben, de játékokban az lesz.
    A Big Kepler csak azoknak az álma, akik nem látják át, hogy azt nem játékra tervezték. A Tesla K20 a paraméterek alapján még a GeForce GTX 680 teljesítményét sem hozná egy játékban. De nem is kell, mert sosem volt cél, hogy a GK110 játékokban is teljesítsen. Természetesen lehet rá GeForce-ot építeni, de egy éves távlatban butaság ezt megtenni, mert ez idő alatt már lehetett egy gyorsabb, játékokhoz illesztett GPU-t tervezni.
    Egyébként a GK110 nem alkalmaz olyan módosításokat, amivel megoldaná a Kepler új DX11-es játékokban jelenlévő compute hatékonyság problémáját. Ehhez a legegyszerűbb megoldás, ha az SMX 192 CUDA magjának felét eldobják. Ezzel nő a shared memory tempó, és a context switch teljesítmény. Természetesen a shader multiprocesszorok számát ilyen irány mellett meg kell duplázni. Ahhoz viszont, hogy a GCN compute hatékonyságát hozzák új architektúra szükséges.
    Röviden összefoglalva, amiben a Kepler le van maradva a GCN-hez képest. A cache-szervezés jelentősen gyengébb, a shared memory tempóban 4,5-szeres a különbség, és a context switch is nagyobb büntivel oldható meg azzal, hogy a GK104-ben összesen 2 MB regiszterterület van, miközben a Tahiti-ben 8 MB. Nagyjából ezek adják az általános büntit. A komolyabb shader programokban az architekturális különbségek jönnek elő, vagyis az, hogy a GCN az elágazásokkal tarkított kódot olyan hatékonyan dolgozza fel, mint egy központi processzor. Eközben a Kepler a korábbi rendszerek szintjén van ebből a szempontból. A forward+ lighting például annyira nem használ sok számítást. A főbb különbséget az architektúrák között az adja, hogy mely rendszerek kezelik jól az elágazásokkal tarkított kódot. Egyelőre a GPU-k között csak a GCN képes erre hatékonyan. Ezért esik ennél a rendszernél messze a legkevesebbet (4-8 fps) a sebesség a Dirt Showdownban az AL effekt bekapcsolásánál.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • fatallerror

    addikt

    válasz Loha #11340 üzenetére

    az semmi tervezést nem igényelt, rákerült 2 680as ami eleve jóval kisebb és olcsóbb mint a tesla.

    nem minimális áttervezést kéne eszközölni hanem drasztikusat, a compute shadereken kívül mindent kukázni kellene mert játékban haszontalanok....tehát egyszerűbb újat tervezni v a maxwellhez nyúlni
    ez 1 nagy lapka és nem érné meg kihozni mert nem annyiba kerülne mint a 690es hanem 3x annyiba, 3 ezer dollárért meg szerintem 1000 ember ha megvenné...még annyi se.

    az összes külföldi hozzáértő is azt szajkózza mint abu tehát h képtelenség h abból geforce legyen

    don't tell me what i can't do!

  • fatallerror

    addikt

    válasz Loha #11343 üzenetére

    ha átcímkézve kiadnák akkor kb 3-4 ezer dolláros kártya lenne amit még a gtx 680as is elver :DDD a gtx 680 tutira veri a teslát játékokban

    #11342) BeLucZ: annyi alapja van mint az amd találgatásoknak másik oldalról

    don't tell me what i can't do!

  • fatallerror

    addikt

    válasz Loha #11391 üzenetére

    ha ez a kártya is létezni fog akkor is sokan fognak 770 v 780 sli-t építeni mert az e-penis fórumokon kiröhögik akinek 1 vga-ja van..
    vigyázniuk kell a 770 erejével ha 400 dollár lesz és súrolja a 780 ti teljesítményét sli-ben akkor az éri meg mert 100 dolcsival olcsóbb, 780 olyan 550-600 dollár lesz annak az sli-je nem fogja megérni
    790 meg lesz vagy 1000-1300 dollár.

    egyébként most néztem 1 külföldi fórumon h csomó olyan van akiknek 4-5-6 ezer dolláros gépük van de 1 olyan szobában ahol a festés más koszos, asztal kopott, szétment. szóval igénytelenek és ha csöpög a csap és beázik a ház(nem a pc háza) akkor is a pc-re költi mert másban nincs sikerélménye csak abban ha agyoncsöpögik neki a fórumon h húúú milyen géped van (persze csak addig míg a fotókat nem nézik meg h milyen szakadt szobában él).
    ezt most csak azért mondom mert mondjuk sokan h 1000 dolláros vga-t minek kiadni kevés a gazdag, kifizeti a szegényebb is tehát a potenciális vásárló több mint gondolnánk

    don't tell me what i can't do!

  • fatallerror

    addikt

    válasz Loha #11395 üzenetére

    pincében gépezni élmény lehet :DDD

    de igazatok van srácok, valóban nagyon nem mind1 h 1 gpu adja ezt v 2 :K kíváncsi vagyok h tényleg létezni fog e ez a kártya, viszont ez akkor compute-ban is felnőne az amd-hez és akkor a többi 700as kártya még eléggé béna lenne mellette nem sokkal olcsóbban :U

    ha létezni fog ez meg keresek majd 200e nettót akkor veszek e-penisnek xDD najó viccelek örülök ha munkám lesz nem h még jól is fizessen xD

    don't tell me what i can't do!

  • fatallerror

    addikt

    válasz Loha #11591 üzenetére

    semmi hátrányod nem lesz.... a tesztekben minden szűrű csontig felvan tolva, azok nagy részét a kis pixelméret miatt kikapcsolhatod és nem fogsz látni különbséget és nyersz 10-20 % fpsnövekedést...aki 1x látott wqhd kijelzőt az többet nem akart fhd-t. láttam 27es fhd kijelzőt és nagyok a pixelek de nagyon... homályos a kép ha wqhd mellett nézed (normál nézési távolságból nem a szoba másik végéből)...

    szóval 1 900 dolláros ennyi vrammal rendelkező kártyát nem fhd-n kéne hasonlítani mert az igazi ereje afelett jön ki, 690nél is megnézheted a teszteket h ott is így van...

    egyébként ha ezek valós nv diák és ennyit tud a kártya akkor elég nagy öngól lenne kiadni a 780ast decembernél előbb v legalábbis addig amíg még elvétve marad ilyen kártya meg még lesz ez lehet mégis később is hisz nem úgy van h jó itt megáll a selejt teslák száma... lesz még selejt tesla tehát lesz még titan akár a nyáron is

    [ Szerkesztve ]

    don't tell me what i can't do!

  • fatallerror

    addikt

    válasz Loha #11593 üzenetére

    azt írtam h kikapcsolható néhány dolog v nem kell annyira felküldeni őket. de ez most 1 olyan hülye vita amit folytatsz :D nagyobb felbontás miatt még senki sem hisztizett :D 27hez kevés a fhd ezen tök feleslegesen vitázol h ugyanolyan éles a kép, hogy lenne már na mind1

    az nvidia elég tisztán fogalmazott nem? megmondták h a selejtes tesla-kból kiadnak 1 önálló geforce-t... semmi köze nincs a 700asokhoz a gk110nek... nem fognak ilyen drága nagyméretű cuccra építeni....
    kisebb chip-el is ehhez hasonló teljesítményt letudnak majd hozni de biztos h nem lesz tőle távol hisz ez is csak 35%-al gyorsabb a 7970 ghz-nél... na most 20-30% növekedés biztos lesz teljesítményben, nincs értelme új chipet tervezni +10% növekedésért...

    ez tisztán biznisz, minél kevesebbre kerül előállítani a kártyát annál jobban járnak a 600 dolláros árral... és a titan egyiknek sem felel meg :N

    don't tell me what i can't do!

  • gbors

    nagyúr

    válasz Loha #11613 üzenetére

    igen, én is csodálkoznék, ha ezt a várhatóan 40%-os differenciát átugraná a 780. de ki tudja.

    @BeLucz: hát én nem. eleve nem sok olyan játékkal játszom, ami erős VGA-t igényel, és akkor sem esik nehezemre lekapcsolni azokat az opciókat, amik állóképen nagyítóval mutathatók csak ki.

    Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

  • fatallerror

    addikt

    válasz Loha #11613 üzenetére

    gk204 v mi lesz és az 1 másik chip lesz...attól még kepler lesz de másik lesz... a gk110es compute teljesítményt lelehet hozni kisebb chipbe is olcsóbban(le is fogják már utalt rá az nv mikor megtudták h a compute a jövő), gpu boost 2 stb amiket mind belefognak pakolni a 780asba is... és én egyáltalán nem lepődnék meg ha alulról súrolná ezt a kártyát teljesítményben máskülönben semmi értelme nem lenne kiadni a 700as szériát ha nem nő mindegyik kártyának a teljesítménye 20-40%-ot. olyat meg nem fognak csinálni h mindegyik kártya árát növelik 200-300 dollárral h igazodjon a titan árához megmagyarázva a teljesítményszinteket...tehát biztos h lesz 500-600 dolláros kártya továbbra is és nem ez a titan lesz most örökké a csúcs....

    ez a titan 1 "lassú" kártya lett, szóval még1x mondom h biztos lehetsz benne h 600 dollár alatt lesz 780as ami valószínűleg ennek a nyakán fog lihegni.
    1 gpu ide vagy oda a 690est fogják így sokan választani hamár azonos áron vannak...nem mindenki ért annyira ehhez és az fps-t fogja nézni és úgy veszi meg...
    hiába írják h nem lesz limitált ez a kártya, igen is az lesz. 780assal párhuzamosan biztos nem lesz forgalomban már, ez 100% :K

    don't tell me what i can't do!

  • fatallerror

    addikt

    válasz Loha #11618 üzenetére

    nincs mit alátámasztani. egész egyszerűen nincs értelme kiadni 5-15% telj növekedéssel mert annyit oc-vel is ellehet érni már most v gyárilag oc kártyákkal...másik meg h mindenképpen belekell nyúlni a lapkába a dx 11.1 kötelező lépés lesz
    utóbbira nem találoma forrást de abu is megírta:

    "Az igazi új generációs GeForce sorozat csúcskártyája várhatóan olcsóbban is megközelíti majd a GeForce Titan teljesítményét, hiszen a játék szempontjából nem fontos egységeket kivéve a GK110-es lapkából nagyjából másfél milliárd tranzisztort lehetne megspórolni, amivel egy új fejlesztésű lapka mérete számottevően kisebb lenne. Ezt a számot akár még tovább lehetne csökkenteni, hiszen valószínű, hogy egy kisebb lapkával az 1 GHz-es órajel bőven hozható, ahogy a GK104 is hozza, vagyis GK110 sebessége egy 400 mm²-es chippel is megoldható, amit 600 dollár környékén is lehetne árulni."

    [ Szerkesztve ]

    don't tell me what i can't do!

  • Abu85

    HÁZIGAZDA

    válasz Loha #11621 üzenetére

    Szerinted van értelme egy GTX 680-nál átlagban 40%-kal gyorsabb VGA-nak több mint kétszer drágábban? Nem beszélve arról, hogy nem egy programban zakatol nem sokkal (csak pár fps-sel) mögötte a HD 7970 GHz Edition, ami feleannyiba kerül.
    Ezt a terméket az NV két fő célból adta ki.
    Egyrészt rengeteg Tesla kártya nem teljesíti a követelményeket és azok kukázva lennének. Mostantól GeForce Titan néven ezek eladhatók.
    Másrészt a GTX 680-at egy HD 7970 játszva elintézi a friss méréseink alapján. A HD 7970 GHz pedig más dimenzió, nem egyszer a minimum sebessége annyi, amennyi a GTX 680 átlag sebessége, pedig ugyanannyiba kerül. Ergo szükség van valamire, mert hiába volt a GTX 680 egy éve gyorsabb, ma már a HD 7950 megverése is komoly gondot okoz neki.
    Harmadrészt. Az AMD Gaming Evolved nagyon vásárolja be a compute hatékonyságot kiaknázó effekteket a játékokba.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák