Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Jacek #33596 üzenetére

    Akkor az tényleg a buildtől függ. A 4.20-tól kedvez az AMD-nek, ez kapja meg a régóta tervezett nagy átalakításokat. Az ez előtti buildek az NV-nek jobban fekszenek. A 4.20-asnál nem tudni, hogy mennyire probléma, hogy az új Vulkan leképezőt kizárólag az AMD hardvereken fejlesztették, kizárólag az AMD fejlesztőeszközeivel. Valószínűleg azért drámai eltérést nem okoz, de mindenképpen az AMD-nek kedvez, hogy a rendszereik szemszögéből optimalizáltak szinte mindent.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #33599 üzenetére

    Ilyen nincs. Mi is ugyanebben a rendszerben dolgozunk. Se az Intel, se az AMD, se az NVIDIA sem mondja meg nekünk, hogy mit hogyan csinálhatunk. Ha megmondanák visszaadnánk a termékmintát és viszlát. De mivel ezt nem tesszük meg, így erre vonatkozóan nincs semmilyen külső befolyásolás. Egyetlen általános kérés szokott lenni az említett cégek felől. Ha tesztelünk valamit, akkor legyünk szívesek és olvassuk el az általuk készített pdf-et, ami leírja a terméket részletesen. Szóval olyanról, amiről ő beszél még csak hírből sem hallottunk senkitől, nem csak az AMD, de az NV és az Intel oldaláról sem.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #33601 üzenetére

    A Youtube-on gomba módra szaporodnak az ugyanarra szakosodott tesztelők. Sokkal könnyebb ide belépni, mint felépíteni egy külön weboldalt, és a helyzet az, hogy az ottani sample-ök is eléggé végesek, tehát nem sokat kockáztat a Tech of Tomorrow, ha megpróbál azzal kitűnni, hogy ők annyira függetlenek, hogy még termékmintát sem fogadnak el, mert gyenge félmillió feliratkozóval úgyis kikerülnek ebből a körből. Főleg úgy, ha a kontaktjuk elment az AMD-től, ahogy mondta. Nagyon sok múlik a kapcsolatrendszeren, mert ezeket a mintákat nem szimpla számok alapján adják oda, hanem valamennyire számít, ha valaki valakinek a haverja. És ha jön egy új kontakt, akkor az valószínűleg inkább a számok alapján kezdi el osztogatni a mintákat, amiben a JayzTwoCents, Linus Tech Tips, HardwareCanucks, Bitwit, stb. sokkal jobban áll. Tehát effektíve érdeke fűződik ahhoz, hogy az emberek azt higgyék, hogy ő volt kemény és nagyon független ember, aki beintett az AMD-nek, és nem az AMD volt az, aki látta a többi csatorna fejlődését, és inkább nekik viszik a hardvert, nem pedig a kevesebb feliratkozóval rendelkezőnek.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #33604 üzenetére

    Ezt speciel én jobban tudom, mert ebben a rendszerben élek, és nem sok sample hardvert szoktak kiosztani a YouTube-ra. Aki nincs egymillió feliratkozó közelében az USA-ban, annak maximum haveri alapon van esélye teszthardverhez jutni.
    Elárulom, hogy teljes tévképzet az is, hogy itt minden startkor dúskál a média a teszthardverekben. A valóság az, hogy alig van, és akár 10 sajtó is ugyanazért a cuccért küzd. A Youtube esetében ez még rosszabb (hacsak nem vállalják el szerződésben, hogy bő nyállal körbeszopják a terméket, de ott nagyon kell tekerni, mert figyelik, hogy fogaznak-e ... gondolom feltűnt már ezeknek a termékbemutatóknak a lényege, mindig minden tökéletes a monitorral, billentyűzettel, akármivel, annyi hiba szokott lenni, hogy kicsit koszos a kijelző hátulján a kábel).

    (#33605) Petykemano: Az Intelnek már nincs sajtóstratégiája. Van egy központosított PR, ami mindent kiszolgál. Nincs helyi PR, nincs kit hívni, csak egy központi mail van, és ott szelektálnak mindent. Persze van sajtóanyag, amit NDA-val előzetesen el lehet érni (bár ehhez is kurva nagy mázli kell), de ennyi. A tesztprocikat is az alaplapgyártók biztosítják a többség számára.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz keIdor #33607 üzenetére

    Ezt értem, de a vásárlók között is van 30 év alatti. Másrészt a LinusTechTips azért tart ott ahol, mert a YouTube-on erre van igény. Ergo a gyártók számára is sokkal célszerűbb neki adni a hardvereket, mert ki tudja szolgálni az igényeket.
    Jöhet itt egy Józsigyerek, aki technikailag nagyon durván ott van, de tesznek rá a gyártók, ha nincs meg az a minimum feliratkozója, akik végeredményben potenciális vásárlók lehetnek (vagy nincs egy haverja a gyártónál, aki tud neki teszthardvert intézni). A világ már nem kíván részletes információkat. A vásárlók egyre nagyobb része a gépek összerakásával sem akar törődni. Egyszerűen le akar emelni egy előre összeszerelt konfigot a polcról, és ehhez vicces videón keresztül vár valami támpontot. Valaki erre ráérez a YouTube-on, és kiszolgálja az igényt. Valaki pedig leragad a múltban, és lemarad a feliratkozók számában.

    Még mielőtt ebből félreértés lenne. Nem mondom, hogy jó dolog, amerre a YouTube halad, és az ahogy ezt lekövetik a gyártók, de mit lehet innen csinálni ugye... :) Leírhatom ide a véleményem, hogy szerintem se annyira jó a LinusTechTips, de ettől még valószínűleg hamarabb érik el a 6 millió feliratkozót, mint a Tech of Tomorrow a 600 ezret.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #33611 üzenetére

    Az a golden sample egy urban legend. Egyáltalán nem válogatnak. Azért lehet nagy különbségeket felfedezni, mert az Intel megváltoztatta a varianciára vonatkozó specifikációját. A Coffee Lake óta 9% különbség is lehet a teljesítményben két ugyanolyan modellszámú CPU között, amit ugyanarról a polcról veszel le. Nem valószínű, hogy ennyi lesz, inkább 3-4% csak, de ha ennyi az eltérés, akkor az még pont megfelel a célzott varianciának. Ez nem golden sample tehát, csak némelyik tesztelő szerencsésebb példányokat kapott, de ezek ott vannak a kereskedelemben is, csak ott is szerencsésnek kell lenni.

    Szerintem az CGI volt. :D

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #33613 üzenetére

    Elmondom mit küld az AMD. Van egy bő 40-70 oldalas review guide (terméktől függően), amire az AMD azt mondja, hogy szerintük ez a reális tesztkörnyezet, ezek a reális programok, és ezekből gyakorlatilag csinálnak egy saját tesztet. Azt kérik, hogy ezt olvassa el mindenki, aki teszteli. De sose, hangsúlyozom sose kérték azt, hogy ezt másoljuk le részben vagy egészben. Sőt, a Ryzen esetében kifejezetten buzdítottak arra, hogy nézzük meg olyan programokban is, amelyek nincsenek benne a review guide-ban, és ha ez egy egyedi program, amit más nem is igazán tesztel, akkor küldjük el nekik az eredményt, hogy ők is láthassák. Ilyenkor esetleg felkereshetnek, hogy mondjuk el azt is, hogy miképp teszteltük azt az adott, ritkán használt programot. A szerződés sose tartalmaz semmilyen teszthez kötött feltételt, akármit lehet írni, akármit lehet tesztelni. Az van benne, hogy be kell tartani az NDA-t, azaz nem lehet egy x időnél hamarabb közölni az információkat, különben ilyen-olyan retorziókat von maga után, emellett az adott teszt értékelését a megjelenése után el kell küldeni a helyi képviselőnek. Gyakorlatilag kérik a plecsnit, hogy a marketinganyagokba oda tudják rakni, hogy a xy média Béla plecsnire értékelte a terméket. Utóbbi nem kötelező érvényű, de ha nem küldjük el, akkor az AMD nem fog hivatkozni az adott sajtóra. Mindenki eldöntheti, hogy ez jó-e neki, vagy sem.

    Ki nem húzta le az utóbbi időben a Xeon részleget? :) De nem kell ezekre hallgatni, vannak tesztek: [link]

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #33615 üzenetére

    Mert nem ebben a rendszerben vagy benne, csak egy külső szemlélőként látod az egészet, és senkiről sem hallasz semmilyen olyan információt, ami megrendíthetné a bizalmat vele szemben. Ellenben a gyártók kontaktjaival én szoktam beszélni, évente többször, akár személyesen is, és nem csak a kívül látható, rózsaszín, cuki pónikat szóró ködfátyolig ismerem ezeket a médiákat.

    (#33616) Raymond: Mint írtam a haveri alap számít, de amint megy a haver kontakt, onnantól kezdve jönnek a nyers számok.

    (#33618) MiklosSaS: A lab501 nem minden gyártónál tartozik a mi régiónkhoz. Az egész régiókra van osztva a gyártóknál, és régiónként van x mennyiségű kiosztható teszthardver.
    A régióknál pedig ne a földrajzra gondolj. Az egyes kontaktok kapnak régiókat, tehát amíg mi az NV-nél a cseh központú régióhoz vagyunk besorolva, az AMD-nél a szerb központúhoz.
    Emellett a lab501 egy GeForce Garage partner, ami elég sok pénzt hoz nekik, így tudnak fennmaradni a jelenlegi gazdasági helyzetben.

    Mi alapvetően egyetlen gyártóhoz sem szeretnénk anyagi alapú partneri viszonnyal tartozni, mert elsődleges irányelvünk a függetlenség. Persze kurva jó a pénz, amit egy speciális szerződés hozhat, de a legnagyobb érték egy újságnak az, ha bármiről szabadon írhat.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz keIdor #33622 üzenetére

    Ez egyébként tök jó, nézel egy rakás oldalt, ami ezzel foglalkozik. Csak elértünk a probléma megtestesüléséhez. Hét médiát soroltál fel gondolom emlékezetből, és a Tech of Tomorrowt nem említetted.

    Az az érdekes a külföldi és a hazai viszonyok között, hogy külföldön piszok erős a verseny. Ott ha be akarsz indítani egy ilyet, akkor tényleg tudsz találni mögé támogatókat. Itthon ez nem realitás, maga a hirdetőpiac nem teszi azzá. Tehát amíg itthon egy olvasó azt látja, hogy van pár média bebetonozva a saját helyén, addig nyugatra egy új médiával akár két éven belül is meg lehet verni igen patinás szereplőket. Itthon ez elképzelhetetlen.

    És akkor még nem is beszéltem arról, hogy kint mi van a rózsaszín ködfátyol mögött. Ami finoman szólva is gusztustalan néha. Ezt nem szeretném megosztani, de érdemes megnézni az AdoreTV PC Perspective-ről szóló anyagát, sajnos tényleg ilyenek történnek.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #33629 üzenetére

    És ezt te is az egy évtizedes médiatapasztalatodra építed mint én ugye? :DDD

    Egyébként te tényleg elhiszed, hogy itt ez az egész média egy olyan szivárványpónis rózsaszín mesevilág, aminek külsőre látszik? Hogy nem történnek személyeket előnybe helyező döntések pusztán haveri alapon a hardverek kiosztásánál, vagy az utaztatásnál? Ha igen, akkor nagyon keveset láttál ebből a világból. ;) Persze értem én az egészet, nem sokan éltek benne tíz éve, és nyilván ezt belülről látni teljesen más, mint amit olvasóként lehet tapasztalni, de ettől még nem kell naivnak lenni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #33644 üzenetére

    Nixxes Software-nek semmi köze nem volt a Rise of the Tomb Raider PC-s portjához. Az Xbox 360, a PS4 és az Xbox One X portot csinálták.

    Az elmúlt évekhez képest annyi változott, hogy az NV a stúdiók helyett címekre köt szerződést. Ez hozott elő olyan érdekességeket, hogy például a Division egy NV által támogatott cím volt, amit gyakorlatilag AMD hardveren fejlesztettek. A Nixxes sem fogja lecserélni a gépparkját, mert nekik ugye kell a kapcsolat a LABS csoporttal, akik csak Radeonra dolgoznak. De volt ez fordítva is, mert a The Turing Test NV hardveren készült, mégis AMD-s címe volt.
    Az a lényeg, hogy az NV feladta a klasszikus stúdiókba utazó koncepcióját, mert egyszerűen nem kell odatelepülniük, hogy a programot támogassák. Majd az utolsó héten odaadják a middleware-t és kész. Akár nulla odautazott emberrel le lehet hozni a címet. Az AMD-nek ugye más a beállítottsága. Ők kevésbé mobilisek, mert nem tudják megoldani azt, hogy az utolsó pillanatban szállítsanak egy middleware-t, ezért van náluk még a klasszikus, stúdiókba betelepülős modell. Amin persze nem is akarnak változtatni, mert ugye mindkét megoldásnak megvan a maga előnye és hátránya.
    A middleware abból a szempontból előny, hogy nem kell helyi ember, megadod mi kell a rendszerednek, milyen DRM-et használ, stb., majd aszerint lesz meg a kód, amibe a végén eljuttatod nekik a dll-eket. Ennek a hátránya, hogy ha nem működik vagy nem jól működik a végső kóddal a middleware, akkor az para, mert nincs idő a megjelenésig javítani.
    Az odatelepülős módszer ehhez képest eléggé drága, és ez a hátránya, mert konkrétan kell helyi szinten programozókat biztosítani, akik ott helyben megoldanak mindent. Az előnye, hogy abszolút integrált megoldásokat kínálnak mindenre, vagyis nem fenyeget az inkompatibilitás vagy a rossz teljesítmény veszélye.
    Ilyen formában egyébként ez a két rendszer abszolút megfér egymás mellett, mert amíg az adott stúdió köt az AMD-vel egy támogatási szerződést (fizetnek a szaktudásért, hardverekért, emberért stb.), addig bizonyos címekre lehet kötni az NV-vel egy együttműködési szerződést is. Ezért alakulnak ki mostanában ezek az átfedések. Még hasznos is, mert ha azt nézed, akkor az NV fizet valamennyi pénzt a reklámszerződésre, amiből az adott stúdió úgy egyben meg tudja venni az AMD szaktudását, mert azért ők sem adják ám ingyen az emberüket. És ez tényleg a kellemest a hasznossal effektus. Működik is. Ugyanezt csinálták a Middle-earth: Shadow of War esetében. Az eredmény nem lett rossz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #33647 üzenetére

    [link]
    [link]
    [link]

    Ezeket a projekteket végezte a Nixxes. A Rise of the Tomb Raider PC-s portját maga a Crystal Dynamics csinálta. Az, hogy mit jelentenek be, és hogy végül mit csinálnak meg belőle, két különböző dolog. Nyilván annak is a függvénye, hogy milyen fontosabb munkákat kell elvégezni. A Nixxes nem egy nagy csapat, alig 20 fő, ők nem tudnak két portot csinálni egyszerre. Szóval a tervezés és a kivitelezés között óriási különbség lehet. Viszont a valóban elvégzett projectekjeiket visszamenőleg jelzik. Nem véletlenül nem írták be a PC-s portot, azt végül nem ők csinálták.

    A patch-ek más részre tartoznak. A DirectX 12-es módot a Nixxes csinálta meg. Ezért is van olyan óriási különbség a beállítható grafika között a DX11 és a DX12 esetében. Utóbbival ugye nem kompatibilisek bizonyos middleware-ek, mivel a Nixxesnek nem volt meg a hardveres háttere ezt tesztelni. Ezért úgy ahogy van ki is hagyták őket a DX12-ből.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #33651 üzenetére

    Nem, csak a bejelentés korábban volt, mint a megjelenés. Nagyon kicsi a Nixxes, rengeteg külsősre építenek, és ha nincs elég erőforrás a munkához, akkor kedvezőbb, ha visszaadják a Crystal Dynamics-nek. Ezért nincs fent az elkészült projektek listáján a PC-s port. Az Xbox 360-ra fontosabb volt a Nixxes, mert nekik volt fejlesztőeszközük hozzá. Viszont amint elkészítették csináltak pár dolgot a PC-s portba, például a DX12-es mód. Ezért van az, hogy a DX11-es és a DX12-es mód között vannak olyan eltérések, hogy utóbbival nem aktiválható pár effekt. A Nixxesnek nem volt lehetősége ezeket betervezni, rengeteg többletmunka lett volna, így inkább kihagyták az egészet. Ha DX12-t is a Crystal Dynamics vállalta volna be, akkor nem lenne benne kevesebb effekt, de annyira szerencsétlenül alakult a fejlesztés, hogy a tervek azok buktak.

    A portolást elkészítheti más is, mint aki biztosítja utána a supportot. Erre a Nixxes akkor jó volt, amikor már ki lett adva a játék. Ettől a portot nem ők csinálták. Nem volt meg rá a kapacitásuk, nem is rakták ki az oldalukra referenciának.

    Sehol. Az NV-től tudom, hogy ők csinálták a DX12-es módot.

    A projekt oldaluk a referenciájuk. Amit ők csináltak, azt oda felrakják. A segítséget azért nem túl szerencsés, mert sok projektben aktívan besegítenek a LABS-nak is, de nem ők vezetik ezeket. Óriási különbség vezetni egy projektet, és csak besegíteni. Utóbbi esetben lényegében semmi közöd nincs hozzá, csak egyfajta szerződéses megrendelést teljesítesz.

    (#33649) Shing: Ez nem a büszkeségről szól. Amelyik projektejet vezették, tehát az övék, azokat megjelenítik.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #33658 üzenetére

    Írtam, hogy sok külsőssel dolgoznak. Ezek szerződésesek. Csak egy adott projektre szól a szerződésük, amint megvan, szélnek lesznek eresztve. Stabilan csak kb. 20 fő a Nixxes, mert az év nagy részében a LABS munkáját segítik. Amikor van többletmunka, akkor jönnek a fix szerződéses emberek.

    Nem így mondták. Azt kérdeztem meg, hogy miért hiányzik pár effekt a DX12-ből, amikor a DX11-ben benne van. Erre az volt a válasz, hogy azért, mert a DX12-t a Nixxes csinálta. Hogy ebből mi jön le neked, azt rád bízom.

    A közös projekteket ki szokták tenni referenciának. Inkább azt lehetne mondani, hogy szerződéses projekt volt, amikor volt egy kis munka, amit meg kellett csinálniuk. Ennyi. Se több, se kevesebb.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #33665 üzenetére

    Csak referenciának nem tüntetik fel. Pedig ha valamit megcsinálsz, akkor azt megadod referenciádnak. Vagy esetleg nem te csináltad és ezért nincs ott a referenciáid között.

    Az a baj, hogy bejelentés történt csak a PC-s portról. Egy megjelenésnél jóval korábbi. Egy ilyen szűkös csapatnál, mint a Nixxes gyorsan megváltozhat a helyzet. Aztán a végén fel se teszik referenciának, mert a Crystal elvégezte helyettük magát a portolást.

    Nem félinformációk azok. Konkrétan beszélgettünk erről, hogy mi történt a háttérben, mert nyilván furcsa volt, hogy a DX12-es mód grafikailag kevesebb. Kevés volt az ember, a megjelenés közeledett, és a Crystal visszavette a munkát. A Nixxes megcsinálta a DX12 módot, és segítette a supportot, majd csináltak még egy multi-threading frissítést, de ezt csak pár hónappal később. Ezért voltak teljesítményproblémák az elején a játékkal.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz FollowTheORI #33667 üzenetére

    Az AMD-nél a Bethesda és a CIG bejelentéseire várnak. Ezeknél a stúdióknál készülnek az idei fő projektek. Az egyik legfontosabb projekt most a Bethesda új IP-je, amiért tudtommal elég sokat fizettek. Hogy mire azt nem tudni. Pletykák vannak, hogy túlmegy majd a normál együttműködési formán az AMD és a Bethesda, és eléggé szoros lesz a kapcsolat üzletileg is. De tényleg csak tippelgetni lehet, hogy mit találtak ki.

    Azért a DX12-nél eléggé nehézkes a Square Enix nyugati részlegének a dolga. Eleve két különböző motorjuk van erre, és ezen belül is sokban eltérnek az implementációk. Technikailag a LABS részleg is csak a Dawnon dolgozik, ami a fejlesztések szempontjából hátrányos. A Crystal/Foundation Engine eléggé félre van rakva, ami látszik is az új Tomb Raider képein, gyakorlatilag ugyanaz, mint az előző rész.

    A legnagyobb hátrány egyébként a Microsoft piacpolitikája. Az rendben van, hogy a DX12 Windows 10 only, már mindenki elfogadta, de minden egyes újítás egy új frissítéshez kötött. Például a Redstone 4 egyik régóta igényelt képessége a 16 bites float megfelelő 16 bites alligmentálással, de ahhoz, hogy ezt kihasználják a programok minden gépre a Redstone 4 frissítés kell. A DirectX Raytracing még nincs is engedélyezve, majd csak a Redstone 5-ben jön, hacsak nem csúsztatják a Redstone 6-ig, mert eléggé sok fejlesztői igény gyűlt össze, amit nem biztos, hogy őszig feldolgoznak, és akkor a véglegesítést inkább görgetik fél évet. Viszont érdekes tényező, hogy különösen a játékosok várnak a frissítésekkel. Egyszerűen kikapcsolják a Windows 10 automatikus modulját, és egyszerűen nem engedik telepíteni a nagyobb update-eket. Ez borzasztóan hátráltatja az amúgy hasznos újítások terjedését. Erre ráadásul a DirectX Raytracing rárak még egy mázsás terhet, mivel érthetetlen okból minimum igényként fogalmazza meg a shader modell 6.0-t, vagyis ha egy ilyen alkalmazást Windows 10 Redstone 3 alatt is futtatni akar a fejlesztő, akkor szállítania kell minden shaderből egy DXIL és egy D3BC verziót. Ez elég durván megnöveli a tesztelési költséget, ami megint csak azt akadályozza, hogy egy újítás terjedjen. Nem is értem, hogy ezt a Microsoft hogyan gondolta. Elég lett volna csak a DirectCompute shaderekre kérni a shader modell 6.0-t, és akkor már egy rakás költséget spórolhatnának a fejlesztők. Persze értem én, a Microsoftnak elég nagy érdeke az, ha valaki pusztán az aránytalanul magas többletköltség miatt inkább el sem készíti a Windows 10 Redstone 3 alatt futó módját az adott játéknak. Ez még pár cég erejéig el is jászható, a kieső eladásokat megpróbálja kompenzálni az érdekelt. Például a Remedy esetén ez tuti opció, de így meg szart sem ér az egész, mert lesz pár kiválasztott cég, a többiek pedig messze elkerülik az újítást.

    A Vulkan esetében ez az egész sokkal jobb. Ahhoz, hogy meglegyen a legfrissebb Vulkan implementáció, csak egy meghajtót kell frissíteni, amit a játékosok sokkal sűrűbben engednek meg. Ráadásul minden magas szintű shader nyelvből ugyanúgy SPIR-V-t fordítasz, tehát egy kódot kell szállítani, és teljesen mindegy, hogy mit használsz az API-ból. Ez a kód pedig Windows 7-ig visszamenőleg futni fog. Szóval a Microsoft saját magát és a DX12-t használó fejlesztőket lövöldözi tökön folyamatosan. Nem véletlen, hogy egyre többen mennek inkább a Vulkan felé. Még ha a Linux nincs is tervben, akkor is nagyobb a célozható piac Windowson, miközben a tesztelési költségek nem nőnek igazán az egyes újítások bevezetésétől.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #33670 üzenetére

    Jobban tudják, mint mi. :))

    De nem nehéz összerakni a részleteket. A Rise-t a Nixxes bejelentette, hogy csinálja, aztán mégse került fel referenciának, aztán lett egy DX12-es mód, ami pár effektet nem tartalmazott, amiről kiderült, hogy a Nixxes csinálta. Tehát van kétféle API, olyan különbséggel, hogy konkrétan effektek is hiányoznak. Aztán soha az életben nem hozták szóba bejelentésben a PC-s portot, megismétlem, referenciaként sem került ki a Nixxes oldalára, holott a RotTR Xbox One X, 360 és PS4 portjuk ott van. Csak a PC-s portot hagyták le. Vajon mi történhetett? Minden rendben a terven szerint lezajlott? Ha igen, miért nem rakták ki referenciának, mint a másik három portot? Nem lehet, hogy kivételesen tényleg jobban tudja egy "külsős", hogy volt probléma a háttérben? :) Felőlem egyébként elhihetjük, hogy hivatalosan minden rózsaszín volt, és aki közel volt a projekthez az hazudott róla, a Nixxes pedig azért nem rakta ki referenciának, mert ... nem tudom. :D

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #33672 üzenetére

    Megkérdezném, de már nincs kit. Mind a négy ember elment onnan, akikhez van/volt elérhetőségem. 2015-2016-ban nagyon sokan leléceltek az id software-hez (páran a Sony-hoz). Ez már nem ugyanaz a Nixxes, mint két-három éve volt, újak az emberek.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #33676 üzenetére

    Nem véletlen. Az id (Bethesda) abban az időben tapasztalt szakembereket keresett. Szinte minden stúdiótól csábítottak el erőforrást. Valahonnan sokat. Innentől kezdve ez már piacgazdaság, ahol nagyobb a fizu oda megy a programozó. A Zenimaxnak megéri, mert befektet a tudásba, amivel később lesz egy jól használható motor minden stúdiója számára. A Cryteket is leszívták korábban.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #33684 üzenetére

    Vagy azt, hogy a Valve megint úgy döntött, hogy önhatalmúlag kivesz egy nagyobb mintát, mert azzal szerintük jót csinálnak. :C

    ---

    (#33686) Raymond: "plusz ebben a honapban a Valve is tekert a Kinai internet cafe-k szamolasan"

    Ez csodálatos. Igazi reprezentatív mérés. Ha nem tetszik az eredmény, akkor tekerünk rajta. :C

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz rumkola #33712 üzenetére

    Nem teljesen. Ez úgy van, hogy itt igazából sok gyártó nincs, maximum sok dobozoló. :)
    Az egyes gyártók vásárolnak maguknak jogot, hogy mely piacokra lehet a termékeiket elvinni. Ebből a szempontból például az ASRock és a Colorful, de még a Sapphire és a Zotac igényei is lényegtelenek, mert nem ők gyártják magát a terméket. Egyszerűen ezt megkapják a partnerüktől. A Sapphire és a Zotac a PC Partnertől, az ASRock és a Colorful pedig egy kimondhatatlan nevű (nem tudom a latin betűs jelzést) kínai üzemből. Na most ezek a valós gyártók szereznek jogot az egyes piacok ellátására az AMD-től és az NV-től. Az ASRock és a Colorful azért nincs itt, mert magának az ellátónak nincs joga nyugatra gyártani. Ha mondjuk ez a két cég mondjuk a TUL-lal vagy a Foxconnal gyártatna, akkor jöhetnének Európába, mert a Foxconn rendelkezik ilyen jogokkal. Azt egyébként nem tiltja senki, hogy az a kínai gyártó, aki az ASRocknak és a Colorfulnak gyárt, ne döntsön úgy, hogy szerez jogot a nyugati piac ellátására is. Nincs probléma belőle, ez egész csak pénz kérdése. Viszont maga a gyártó eziránt nem érdeklődik (nyilván az EU-ba eltérő minősítéseket kell szerezni, mint Kínába). Innentől kezdve az ASRock és a Colorful keze is meg van kötve, amíg nem mennek át egy olyan gyártóhoz, amelynek van joga ellátni a nyugati piacokat. Hiába kérik az AMD-t és az NV-t erre, ők a minősítések hiányában nem adhatnak engedélyt nekik. De ha ez megvan, akkor természetesen az AMD és az NV engedélyezi a szállítást ide is, innentől kezdve a dobozolás során már csak a megfelelő dobozokat és leírást kell biztosítani. Nyilván a nyugati piacnak angol/német/francia/stb. nyelvű leírások kellenek.
    A másik lehetőség a szürkepiac. Ez már egy érdekesebb kérdés, mert ilyenkor gyakorlatilag EU-s engedélyek nélküli terméket hoznak be ide. Ez nem teljesen legális, de végeredményben mire valamiről kiderül, hogy az engedélyek nélkül nem forgalmazható, addigra a legtöbb bolt már eladta a készletet, tehát maga a piac ebből megél.

    Egyébként ha valaki AMD Radeont akar építeni szerintem leginkább a TUL-t érdemes megkérni rá. Sokkal drágább, mint a többi gyártópartner, de a gyártósoruk olyan, hogy minden piacra tudnak engedélyt kiállítani. A PC Partner se rossz, de ők igazából a saját leányvállalataikat szolgálják ki elsődlegesen, míg mondjuk a TUL egy OEM beszállító is, tehát effektíve mindenkit ugyanolyan szinten kezelnek, annak ellenére, hogy nekik is van saját márkájuk PowerColor névvel. Az NV-nél a Palit hasonló gyártó, mint az AMD-nél TUL, ők is tudnak mindenhova engedélyt kiállítani. Ők még relatíve olcsók is.

    Azt egyébként el tudom képzelni, hogy az ASRock esetében a partnert is az AMD intézte, és gyakorlatilag direkt olyan gyártót választottak, akik csak Kínát célozzák. Ebben az esetben nyilván már előre tudható volt, hogy máshova nem is jönnek az ASRock VGA-i. Az persze nagyon meglepő lenne, hogy erről az ASRock esetleg nem tudott.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Pipó #33716 üzenetére

    Ezernyi oka lehet. Például a tévépiac VRR választása. A Samsung a HDMI-s FreeSync-et és a HDMI VRR-t, míg sokan az utóbbit választották. Mindkettőt csak Radeonnal lehet jelenleg használni. Az AMD-n kívül más gyártó vagy nem kínál támogatást, vagy nem is jelentették be azt.

    A nemsokára még azért elég messze van, és nagyon sok régi VGA is megmarad a mostani palettából. A memóriagyártók annyira szétkartellezték magukat, hogy borzalmasan kevés az új szabványokhoz való memória. És nyilván nem a telefongyártók fogják ennek meginni a levét, hanem az olyan piacok, amelyek a memóriagyártóknak nem különösebben számítanak. Például a VGA-k.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Televan74 #33719 üzenetére

    Nem. Az újabb panelek már nem Full HD-sek. De van C27HG70, ami WQHD-s és HDR-es. Viszont még ez is majdnem 200 rongy, ugyanakkor nagy előnye, hogy támogatja a játék által számolt tone mapping megjelenítését, míg a legtöbb HDR-es kijelző nem igazán a játékosoknak készült, így a szabványos HDR futószalagot használják, ami extra tone mappinggal jár.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Televan74 #33721 üzenetére

    Igen, csak a 4K-s HDR tévék nem a játékokhoz készültek. A tipikus HDR10/Dolby Vision pipeline nem veszi figyelembe, hogy a játékok esetében csak árt a utófeldolgozásnál a tone mapping. A játékba bekérhető az adott kijelző specifikációja, és annak megfelelő tartalmat lehet rá számolni, amivel kiüthető az utólagos tone mapping is. Ezzel lényegesen kisebb lesz a megjelenítés késleltetése, illetve a képminőség is jobb lesz. A normál tévék ezt a módot nem támogatják, mert nem a játékosoknak készültek.
    Ez egyébként szerencsére szabványosítás alatt van, tehát később lesznek HDR Gaming kiegészítések, de ez még évek kérdése. Addig a Samsung által alkalmazott módszer az egyetlen megoldás. Mondjuk jó hír, hogy az Xbox One S és X is támogatja, tehát a jövőben akár a tévékben is megjelenhet.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz keIdor #33724 üzenetére

    Nem bugos. A probléma az, hogy az aktuális HDR szabványokat nem játékokra tervezték. Meg lehet csinálni, de mindegyik szabványos pipeline csinál egy extra tone mapping lépcsőt azután, hogy a PC-ről elküldte a program a képet a kijelzőre. Az a kép akkor igazán jó, ha a kijelző képességeiről az adott játék információt kap, és abból az információból kiindulva csinálja a tone mappingot, majd az így keletkező képet küldi el, amit a kijelző lehetőség szerint már nem módosít egy extra tone mapping lépcsővel. Effektíve így működik a Samsungnak a három HDR kijelzője, amit a játékosoknak szánnak, de ezeken kívül semmi más nem támogatja ezt a formát, vagyis a HDR a játékokban az említett kijelzőkön kívül minőségtorzító hatásban részesül. Egyszerűen a HDR10 és Dolby Vision nem alkalmas arra, hogy a játékokba tegyen jó minőségű HDR-t. Ezért is dolgozik a háttérben az ipar egy olyan gaming kiegészítésen, amelyek szabványosan is megoldják a kijelző adatainak beolvasását, és ebből a közvetlen tone mappingot, csak ez még évek kérdése ugye, mert szabványosítani kell.
    A Samsung alapvetően egy nem szabványos megoldást használ, a FreeSync 2-t, amit a PC-n csak az újabb Radeonok, míg a konzolpiacon az Xbox One S és X támogat. Mivel ez nem szabvány így könnyű építeni rá támogatást, csak magát az alapproblémát egy nagyon szűk részterületen oldod meg vele. És ez is játékokra van bontva, például a Far Cry 5 ezt a formát már támogatja, de ha nincs Samsung FreeSync 2 Gaming monitorod és újabb Radeonod, akkor a Microsoft szabványos HDR pipeline-ját használja a program, aminek a minősége sokkal rosszabb. Az Xbox One S és X is hiába támogatja, konzolon a Far Cry 5 nem tudja használni a FreeSync 2-t.
    Szóval nem bugos a dolog, nagyon korlátozott hardverek használata mellett működik, de általánosan a szabványos pipeline-ok nem játékokra vannak kitalálva, és ha ilyen HDR-t használsz, akkor nyilván nem lesz jó eredmény a kijelzőn, maga az extra tone mapping fázis lehetetleníti el ezt. És ez egy full szoftveres probléma, hardverből nem oldható meg.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #00137984 #33727 üzenetére

    Ugyanazok csinálták a HDR-t az Originshez, mint a FC5-höz. Csak az Originshez még nem csináltak közvetlen tone mapping számítást. De ahogy írtam fentebb, ez csak pár konfiguráción aktiválódik.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz keIdor #33729 üzenetére

    Nem teljesen. Inkább a Windows aktuális HDR pipeline-jának "mellékterméke", ami bizonyos hardver összeállításokat jobban érint, míg más konfigurációkat kevésbé. Amint betöltesz egy olyan tartalmat, ami gyakorlatilag letiltja a szoftver oldalról nem kezelhető tényezőket, a jelenség teljesen megszűnik. Az más kérdés, hogy ehhez olyan hardverek is kellenek, amivel ez az egész kikerülhető a játékok alól.
    Amelyik gyártó HDR implementációja a Windows pipeline-ját használja az érintett lehet ettől a problémától, akár súlyos formában is, és ezt nem lehet kívülről, egy hardvercserével kezelni. A Microsoft talán tudna tenni valamit, de ahhoz is új pipeline kell, és ugyanúgy a rengeteg eltérő hardver miatt nem kizárt, hogy az meg más problémás jelenségeket hoz elő. Egyedül a FreeSync 2 kerüli meg a Microsoft saját rendszerét, így az ebben lévő úgymond mellékhatásokra nem érzékeny. De ezzel az a baj, hogy nem szabványos, tehát te például el sem tudod érni. De mivel nagyon korlátozott a hardveres támogatás, így arra a korlátozott hardvere jól meg lehet csinálni, azzal a pár szoftverrel, ami támogatja is.

    Ezek azok a dolgok, ami miatt az iparág elkezdte vizsgálni azt, hogy a rendszer esetleg beolvashatná a kijelző paramétereit, és ezt figyelembe véve állíthatná elő a HDR-t is. Gyakorlatilag ez így egy szabványosított FreeSync 2 lenne, ami működne mindenen, mármint minden új kijelzőn, mert az aktuálisaknak mindegy.

    Végeredményben ez a jelenség már egy éve létezik: [link] - Nem igazán bugról van szó, nem lehet csak úgy fixálni. Új pipeline-t kell tervezni, de leginkább el kellene érni, hogy az alap HDR is úgy működjön, ahogy a FreeSync 2. Szépen össze kell ülnie az iparágnak (szoftver, GPU, kijelzőgyártó) alkotni egy tényleges szabványt a FreeSync 2 mintájára.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #33746 üzenetére

    Igazából arrafelé tart.

    Ez valóban elkészült prototípus szinten. Most azt csinálják, hogy elkészüljön kiadható termékként. Előbb szerver, majd asztali és mobil vonalra. Az Intel dettó ugyanilyenen dolgozik. Nem a Kaby Lake-G-vel, hanem a saját lapkáival. A Kaby Lake-G csak egy kényszertermék.

    Szóval az Intel és az AMD hosszabb távú tervei nem változtak. Szépen a tokozásba egy-két erős CPU, majd egy erős GPU, és viszlát PCI Express. Ha tetszik, ha nem ez lesz. A Windows 10 1803 is tartalmaz olyan kísérleti funkciókat, ami ilyen hardvert igényel. Például a Tiled Resources TIER_4.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz cyberkind #33748 üzenetére

    Én abszolút emellett állok, de előbb azért meg kellene egyezni, hogy mi legyen helyette. Az nem jó, hogy az Intel UPI-t akar, míg az AMD GMI-t. Persze az Intel GPU tudja támogatni az UPI-t, az AMD GPU a GMI-t, de mi van a keveréssel? Egy GMI-s GPU nem működik UPI-s procival és fordítva.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz cyberkind #33750 üzenetére

    Jelen állás szerint az NV legjobb esetben is PCI Expressen ragad. NVLinket biztos nem fog beépíteni az Intel és az AMD.

    Amúgy én többször mondtam már. CCIX, de akár jó a GenZ is. Ezek elég jók ahhoz, hogy a PCI Express mehessen és mindkettő szabványosítható.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #33752 üzenetére

    Nem tudod a PC-t úgy fejleszteni, hogy a CPU-k 10+ maggal rendelkeznek, a GPU-k 10+ TFLOPS-osak, a memóriák elérése a CPU oldaláról 80, míg a GPU oldaláról 500 GB/s is lehet, és eközben a PCI Expressen keresztül egy nem memóriakoherens kapcsolat érvényesül 16 GB/s-mal. Még a PCI Express 4.0 32 GB/s-ja is kevés lesz. Ahhoz, hogy értékelhető mértékben gyorsíts mindenképpen radikális lépés kell. Egy memóriakoherens, legalább 100 GB/s-os kapcsolat. Az már nem feltétlenül szükséges, hogy a GPU beköltözzön a CPU mellé. Ez csak abból keletkezik, hogy az Intel, az AMD és az NV nem tud megegyezni egy memóriakoherens és nagyon gyors szabványról.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz keIdor #33756 üzenetére

    Mert a 16 GB/s már borzalmasan kevés. A 32 GB/s csak szimplán kevés lesz, mire megjelenik. Önmagában ezzel, hogy fejlődik nincs baj, de egyrészt nagyon lassan, és gyakorlatilag csak a teljesítmény növelése a fő cél, holott azért ma már a memóriakoherencia is eléggé fontos lenne.

    Én azért remélem, hogy nem tűnik el, mert ha a Microsoftnak bejön ez a Ray-tracing vonal, akkor azt nagyon jól ki lehet helyezni ám külön GPU-kra. Effektíve ilyenkor a Ray-tracing effekt bekapcsolásáért veszel még két GPU-t és kész, mellette meg lehet ott a fő GPU a CPU mellett.

    Még lehet itt leképező szintű változás is. Ha mondjuk áttérünk texel shadingre, akkor az is iszonyatosan kedvezne a több GPU-nak, és akkor a PCI Express jó szolgálatot tehetne, hiszen a shading fázisok jól elkülöníthetők lennének.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #33769 üzenetére

    Nem pont a VGA a limit. Leginkább az API. Volt régebben egy előadás, hogy a DX12 és a Vulkan API-val igencsak taccsra lehet vágni a PCI Express 3.0 x16-ot is. Egyszerűen a legacy API-kban máshol voltak a hardveres korlátok, és sok dolog nem jött elő, amelyek az új API-kkal problémásak. És nem kell ehhez szupergyors VGA. Szóval valóban, amit most látunk az leginkább egy kényszerű tényező. Azért nem érezzük a PCI Express-t limitnek, mert a programok úgy vannak elkészítve, illetve effektíve butítva, hogy ne legyen limit, mivel a user nem tud vele mit kezdeni.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #33774 üzenetére

    CPU visszaírásra. Számos olyan technika van ma, ami nem azért alakult ki, mert ez a jó, hanem azért, mert szűk a CPU és a GPU közötti kapcsolat. Például a GPGPU-culling nem azért terjed a Frostbite, az id tech, a Dunia, stb. motorokban, mert annyira szuper minden kivágási munkát a GPU-ra rátolni. Bizonyos feladatok jobban illenek a CPU-ra, de hiába gyorsabb ezekben, ha közben a pipeline egyirányú, tehát a visszaírást mindenképpen el kell felejteni. Ebben az esetben az dönt, hogy összességében mi a gyorsabb. Ha egy adott feladatban mindent a CPU csinál, vagy ha mindent a GPU. Az teljesen mindegy, hogy a hibrid modell sokkal jobb lenne, mert kevés hozzá a PCI Express. A GPGPU-s irányokkal sem lépünk igazán előre, csak nem a bal kezünket harapdáljuk, hanem a jobbat. Utóbbi pedig picit jobb, van aszinkron compute lehetőség, tehát ez még fejleszthető. De következő körben már tényleg nincs hova lépni. Muszáj magát az alapproblémát kezelni, vagyis a szűkös buszt. És ezen a primitive shader sem igazán segít. Az is csak egy 2000-es években kialakított rendszert cserél jóval modernebbre, nyersz vele maximum egy-két évet, de nem fogja önmaga megoldani a szűk busz problémáját.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #33779 üzenetére

    És hogyan adsz ki egy olyan multiplatform játékot PC-n, ami mondjuk alkalmaz a PS4-en visszaírást a CPU memóriájába? Meg sem fog mozdulni. Nem elég gyors az összeköttetés, hogy működjön. PS4-en persze működni fog, de akkor már nem multiplatform játékról van szó. Szóval PS4-en is csak az exkluzív játékok mennek el addig, hogy erősen terheljék a CPU és az IGP összeköttetését, illetve hogy használják a megosztott memóriát.

    Azt értsd meg, hogy minden gyártó megcsinálta a maga kis memóriakoherens és egyben igen gyors összeköttetését. Az Intel az UPI-t, az AMD a GMI-t, az NV az NVLinket. Nem azért, mert volt egy rakás felesleges mérnöki kapacitásuk, hanem mert kellett.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #33781 üzenetére

    De belehet, csak ott kellene alkalmazni valamilyen heterogén több GPU-s menedzsmentet. És ott nincs mihez kezdeni a rendszerrel, ahol nincs IGP, vagy le van tiltva.

    A primitive shadert még be sem építették egy API-ba sem. Annak egy igen leegyszerűsített modelljét alkalmazza például az id tech 6.5. Az se rossz egyébként, alapvetően a primitive shaderrel használható pipeline a culling szempontjából nem tud sokkal többet, mint az id tech 6.5-nél az a modell, hogy az input assembler után rögtön jön egy compute shader lépcső még mielőtt egy csomó nem látható geometria eljutna a vertex shaderbe vagy ezen túlra. A primitive shader elegánsabban kezeli a problémát. Nem kell csúnya compute kódokat írni a működéshez.

    (#33782) Loha: Ha elkezdenék butítani a játékmenetet, akkor több munka lenne az egész játék áttervezésével, mintha eleve úgy dolgoznák ki az egészet, hogy minden platform leggyengébb pontjaihoz igazítsák a dizájnt.

    (#33783) Raymond: Költői volt a kérdés. Nyilván tudja mindenki, hogy nem igazán fér bele a szűkös időkeretbe a CPU-GPU-CPU-GPU round-trip.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #33786 üzenetére

    GPGPU felé azért mennek most, mert az mindenkinél van. Tehát ha írnak egy GPGPU-culling megoldást, akkor az kompatibilis az összes konzoltól kezdve, az összes compute shadert támogató GPU-n át, az összes compute shadert támogató IGP-ig. Egy irtó univerzális megoldás multiplatform szinten, még akkor is, ha van nála jobb. Emellett fejleszthető is. Egyszer megírod, és a "hovatovábbal" ráérsz majd két év múlva foglalkozni. Addig optimalizálod, beépíted a subgroup/wave intrinsics függvényeket, kihelyezed asszinkron computera. És ezektől még a módszer univerzális jellege megmarad.

    Ha nem egyezik meg a piac, és mindenki lezárja magát a saját linkjére, akkor eleve megszűnik a gyártók keverése. Nem is tudsz majd VGA-t venni. Megkapod a GPU-t a CPU-val közös tokozásban. Az meg tökmindegy, hogy háromféle link van. A program oldaláról ezzel nem kell különösebben foglalkozni. A leglassabb sebessége is messze több, mint amire ma képes a PCI Express, de még a készülő 5.0-t is felülmúlja, és akkor ezek is gyorsulnak a jövőben.

    Oké most ez teoretikus lesz. Tehát amerre megy a Microsoft, és amilyen jól működik a texel shading, én egyáltalán nem tartom kizártnak, hogy a PCI Express és a gyártók külön linkjei jól el lesznek egymás mellett. Legalább az asztali szinten. Mobilban nem, ott túl kicsi a hely, de asztalon simán meg lehet csinálni azt, hogy veszel egy Intel vagy AMD procit, ahhoz jár ugye a GPU a tokozáson, és az már egy komplett rendszer. De teszem azt egy texel shading leképezőt használó játéknál az árnyalási fázis függetleníthető a raszterizálástól, tehát azt szépen szétszedi a program, és a fő GPU-d marad a tokozásban, míg az árnyalásra befogsz egy VGA-t a PCI Express porton, de akár befoghatsz 20-at is. Maga a texel shading marha jól skálázódik. Ugyanígy a sugárkövetés. Az is egy nagyon jól függetleníthető feladat. Nem kell azt azon a GPU-n elvégezni, ami éppen a képet rakja ki a kijelzőre, és ennek a skálázódása is igen baráti. És itt lehet igazából keverni a gyártókat is. Láthatod az AotS-t, az is támogat multi-GPU-t AMD+NV rendszeren, tehát technikailag ennek nincs akadálya. Az más kérdés, hogy üzletpolitikailag x gyártó mondhatja azt, hogy az én piacomon y gyártó nem szívesen látott szereplő. De tényleg, a szoftver oldaláról sok dolgot lehet csinálni, még akár nem is jelent ez jelentős többletmunkát.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz keIdor #33792 üzenetére

    Ez véleményes. Kérdés, hogy a Titan V-t hova számolod. Elvégre lehet rajta játszani.

    A HBM-mel egyébként az a problémája az NV-nek, hogy kevés memória építhető a GPU mellé. Nekik nincs HBCC-jük, hogy ezt a problémát csak egy driverbe épített csúszkával kezeljék. Fizikailag kell a memória, és a GDDR6-ből így több használható. Ez a HBM-nek az összes előnyét felülírja a nézőpontjukból.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #33794 üzenetére

    32 GB-nyi HBM2 jelenleg 400 dollárba kerül minimum. Emellett ehhez 4096 bites busz kell. Mit csinálsz mondjuk egy középkategóriás VGA-n, amire elég az 1024 bites busz? Oda reálisan egy ~40 dolláros 4 GB-os stack az ideális.

    Ha jól megírják a programokat, akkor 4 GB is bőven elég lenne, de a legtöbb fejlesztő, csak bevágja a DX12 RSL-t, vagy a Vulkan VMA-t. Ezek megfelelő háttérmunka nélkül csak működnek, de borzasztóan pazarolnak. Szóval messze nem az a baj, hogy nem lehetne megírni jól a programokat, hanem az, hogy nem írják meg. Félelmetes az, hogy a Rise of the Tomb Raider Xbox One X-en 1,2 GB-tal elvan. Ennyi device_local flaggel ellátott memóriát használ GPU. PC-n ugyanez 5-6 GB közötti. Eközben ugyanazt éri el, csak nagyságrendekkel szarabb az allokációk kezelése.

    A HBM már csak a GDDR5-nél drágább. A GDDR5X-nél és a GDDR6-nál már olcsóbb. Jóval kevesebb lapka kell a megfelelő sávszél eléréséhez.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #33796 üzenetére

    Mit teszel rá? A GDDR5 rendkívül sokat fogyaszt, a GDDR6 pedig túl drága.

    Az Xbox One a textúrákat a host visible flaggel ellátott memóriában tárolja. A GPU egyszerűen csak kiolvassa és kész. Az adat egyébként nem csak textúra, hanem rengeteg puffer is. Ez a probléma a PC-vel, hogy oda streamelni kell a textúrát is a host visible memóriából, és ezen a ponton vesztesz el egy rakás hatékonyságot, mert nincs szükséged arra a rakás allokációra, hanem azokból kell az allokációk egy része. De nem tudod csak úgy ezeket beolvasni, így pedig másolgatni kell a teljes allokációt. Effektíve költesz rá ~8 GB-nyi memóriát, miközben a valóban fontos adat igazából ebből ~3 GB csak, de nem tudod elérni, hogy csak ezt másolja be a hardver, muszáj hozni a szükségtelen adatokat is.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz keIdor #33798 üzenetére

    Nem. Nincs különösebb baj a memóriával, a gond az, hogy iszonyatosan hiány van a többi memóriából, és a memóriagyártók nem a GDDR6-ot tartják prioritásnak, amikor a többi megrendelést is ki kell szolgálni. Szóval rendkívül torz most a piaci megjelenés ilyen szempontból. Még ha kész is az első ilyen hardver, akkor sem éri meg kiadni, annyira kevés a memória hozzá, ez pedig még az árat is felnyomja.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Dandris #33835 üzenetére

    Nem volt az nagy jóslat. Az NV akkor kezdte el forgalmazni a GTX 1080-at, amikor a Micron még kísérleti gyártásban volt a GDDR5X-szel. Természetes volt, hogy őszre megnőtt a gyártott mennyiség száma, hiszen a gyártósor véglegesítése után jóval többet üzemelnek be, mint amennyit használtak a kísérleti gyártásban.

    A GDDR6-tal sincs ilyen szempontból probléma. A Hynix a kísérleti gyártás fázisát viszi, és valószínűleg a nyárra a gyártósort véglegesítik is. A probléma sokkal inkább az, hogy GDDR6-ból nem fognak annál több gyártósort építeni, mint amennyiben megegyeztek a megrendelőkkel. Nagyobb az esély arra, hogy a legtöbb partner nem ilyen memóriát választ. És itt jön elő a kartelezés problémája, ugyanis a teljes gyártókapacitás szűkös, köszönhetően annak, hogy nem követték a memóriagyártók a piaci igényeket, így pedig nem is készültek fel arra, hogy optimálisan kiszolgáljanak mindenkit. Ez a fő oka annak, amiért az NV folyamatosan hozza azokat a VGA-kat, amelyekről spórolják le a GDDR5 lapkákat. Nincs elég, a lapkából már elég sok van, a GP104 hegyekben áll, de nem tudják eladni őket memória nélkül. Ott próbálnak GDDR5 lapkákat nyerni, hogy a legnagyobb felvásárlóknak butított termékeket szállítanak most. Négy butított GTX 1050-en megspórolnak négy GDDR5 lapkát, ami plusz egy GTX 1050 a retail piacra.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Dandris #33837 üzenetére

    Mint írtam a kísérleti gyártás során kezdték el árulni. Őszre csak a szükséges mennyiségű készlet jött belőle, mert több GDDR5X-et gyártott a Micron.

    A Cannon Lake-et is lehet már vásárolni, de olyan limitált a készlet, hogy alig épít rá valaki terméket. Azt hiszem, hogy az Intel az egyetlen, de ebben nem vagyok biztos. Az, hogy valamit elkezdesz árulni, az nem jelenti, hogy az igényeket is ki tudod szolgálni a készlettel.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Dandris #33842 üzenetére

    Ne csak országosan gondolkozz, hanem globálisan. ;)

    A kísérleti gyártás fázisában egyébként nem ritka ez a jelenség. A gyártósorokat addig nem kezdik építeni, amíg nem véglegesítik azt. Ugye sokkal drágább lenne egy csomó gyártósort módosítani, mint megvárni a specifikálást, majd arra építve felhúzni a szükséges mennyiséget. A következőképpen zajlik ez. Lesz egy szűk számú gyártósor, ahol megy a kísérleti gyártás, majd onnan egyszer lesz egy véglegesítés. Innentől számít a tömeggyártás, még akkor is, ha baromira kevés a gyártósor. Ezután a leadott rendeléstől függően építik ki a többi gyártósort. Ezzel úgy 3-4 hónapos idő megy el a gyártást is beszámítva, és ekkorra lesz elég lapka. Ezt sehol senki nem tudja gyorsabban, mert ennyi időbe telik a bevezetés. Maximum arról dönthet a megrendelő, hogy piacra dobja-e a terméket korlátozott mennyiségű ellátással.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Dandris #33847 üzenetére

    A Hynix a beszállító. Velük van szerződése az NV-nek. A HBM2-t is tőlük veszik. A Hynix leplezte le amúgy az új sorozatot, még amikor bejelentették a GDDR6-ot. Elárulták, hogy az egyik GPU-gyártóval már exkluzív szerződésük van egy 384 bites memóriabuszú VGA-ra. Az, hogy a Samsung hogyan áll irreleváns. Ezekből a szerződésekből nem egyszerű kibújni, maximum büntetéssel, de nem valószínű, hogy a teljesítmény számít, mert a Hynix lehet, hogy ki tudja őket szolgálni, míg a Samsung lehet, hogy nem. Mint írtam korábban a tömeggyártás nem azt jelenti, hogy sokat gyártanak, hanem azt, hogy a gyártósor véglegesítve van. Attól még gyárthatnak 10-et vagy egymilliót is. Mindkettőt tömeggyártásnak értelmezik.

    A TSMC 7 nm-es node-ja is tömeggyártás szintjén érhető el. Mégsem gyárt még senki 7 nm-es lapkát tömeges szinten. Egyszerűen csak annyi van, hogy a gyártósor végleges, készen áll a tömegtermelésre, de a megfelelő mennyiséget fizikailag is ki kell építeni, azt pedig a gyártók akkor teszik meg, ha van is igény.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    Unreal Engine 4 update a Vulkan leképező állapotáról. [link]

    Rolando Caloca (ő írja a Vulkan leképezőt) szerint a uniform buffer stratégiájukkal verik a DX11-et egy szálon is:
    "Infiltrator Editor
    D3D11: 46.83ms / 21.28fps
    Vulkan: 36.75ms / 28.15fps
    Infiltrator Demo, wide city view
    D3D11: 30.36ms / 29.79fps
    Vulkan: 13.62ms / 38.08fps"
    (Úgy látom egyelőre csak AMD-s eredmények vannak.)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #33870 üzenetére

    Már egy éve lehet tudni, hogy az Epic lecserélte a gépparkot AMD-re, de ettől ez nem akadályozza meg, hogy NV-vel is mérjenek. Az AMD-vel kötött szerződésük biztosan nem zárja ezt ki. Azt persze el tudom képzelni, hogy a Vulkan kód még nem végleges, így csak az AMD-re van optimalizálva, és később veszik elő az NV-t és az Intelt. Ebben az esetben érthető, hogy miért nem közölte Vulkan eredményt a többi gyártóról.

    Egy szálra kényszerítve mértek, ott pedig nincs nagy különbség a DX11-es driverek között.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #33873 üzenetére

    Neked, aki nem hallott róla, de a Vulkanra való átállásnál problémába ütköztek abból a szempontból, hogy nem voltak jó profilozók, emellett az NV Vulkan drivere sem volt életbiztosítás 2016-ban, amikor a munkálatok kezdődtek. Erről itt is olvashatsz bővebben: [link]
    Még az id Software is küzdött ezzel, nem véletlen, hogy a Doom Vulkan frissítése több memóriát kért a működéshez GeForce-on. Az early Vulkan adoptereknek egyszerűen nem volt más választásuk, mint Radeonra váltani. Ma már szerencsére sokkal jobb a helyzet, csak mivel korábban már berendezkedtek a Vulkanra, értelmetlen visszacsinálni mindent, főleg úgy, hogy 2017-ben hozott az AMD egy nyomkövetős profilozót, amit idén integráltak is a RenderDoc-ba. Egyszerűen sokkal jobb a fejlesztői környezet, amit kínálnak. A többiek nagyon lassan léptek, és ezt az időbeli a lemaradást hordozzák. Bár az Intel drivere veszettül jó lett idénre, ez azért nagyon pozitívum a számukra.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #33892 üzenetére

    Nem alkalmasak. Maximum denoisingra jók.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #33895 üzenetére

    Nagyon szép a marketing, csak ha megnézed a DXR-t, akkor az jelenleg csak 16 és 32 bites lebegőpontos formátumot támogat. A tensor magok 8 bites fixpontos ALU-k. ;)

    Eleve az AMD mondta, hogy ők is tudnak rá drivert csinálni, GCN3-tól felfelé van is már tesztcsomag. Egyébként egy olyan dologról vitázunk, aminél a Remedy elmondta, hogy 1920x1080 pixeles felbontáson, pixelenként egy sugarat, virtuálisan maximum 4 méteres távolságig kilőve a számítások nagyjából 5 ms-ig tartanak. Na most egy sugár az nem sok, és a 4 méteres távolság sem az, tehát iszonyatosan szűk térben alkalmazható technikáról van szó, ami a 60 fps-hez mért képszámítás harmadába kerül és akkor ez csak Full HD. 4K-n ez 20 ms, ami a 30 fps-hez mért képszámítás kétharmada. És akkor még nem számoltál semmit, amit ki tudnál rakni a kijelzőre.

    A packing alkalmazható a DXR-en belül, hiszen támogatott a shader modell 6.2 16 bites lebegőpontos formátuma. Persze ettől az ég óvjon minket. :U
    Elmondom neked, hogy miért csinálják ezt a sugárkövetést a gyártók. Az AMD-nek és az NV-nek is ugyanaz a koncepció mögötte. Mindegy, hogy DXR, vagy Vulkan-féle GPUOpen, vagy egy esetleges Vulkan szabvány, a probléma az, hogy a PC-s GPU-kat a jövőben nem igazán lehet úgy skálázni, hogy ne növekedjen meg a multiprocesszor:raszter arány. Viszont ahogy távolodsz a konzolok arányától, ami amúgy 8:1 körüli, úgy lesz egyre több idle lyukad az architektúrában. Tehát tök jó, hogy megvan a GPU-ban az ALU, csak a shadereket nem olyan multiprocesszor:raszterre optimalizálták, amilyen az új, erősebb GPU-ké. Viszont a sugárkövetés egy marhára függetleníthető folyamat a raszterizációtól, vagyis meg tudod azt csinálni, hogy ezt felhasználod az idle lyukak betömésére az aszinkron compute segítségével. Ettől még mondjuk egy újabb, mondjuk 16:1-es arányú GPU nem lesz jobb grafikára, de van egy rakás szabad ALU kapacitása sugárkövetést számolni. :D Nagyjából ennyi a koncepció mögötte.

    Egyébként ez a sugárkövetéses dolog nem rossz, csak lesznek majd olyan árnyoldalai, hogy ha nem lesz meg a teljesítmény, akkor maga a sugárkövetéses rész a programon belül túl egyszerű, hogy bármit is elvegyél belőle, emellett a 32 bites lebegőpontos formátum eléggé zabálja a memóriát is (értem a 16 bit opció, csak aki látott már ilyet, az tudja, hogy nem éppen reális), miközben van erre sokkal jobb formátum is, ami pont nem támogatott. Tehát iszonyatosan kell majd a memória, ami miatt félő, hogy kisebb textúrarészletességet szállít a fejlesztő, vagy rosszabb minőségű modelleket, mert azzal a sugárkövetés memóriaigényét is levágja. Vagyis összességében többet vesznek majd el a raszterizálás minőségéből, mint amennyit a sugárkövetés egyáltalán hozzá tud tenni az egészhez. Nézd meg a Metro Exodust sugárkövetéses trailerét.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák