Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Oliverda #16100 üzenetére

    A kísérleti gyártásban mindent fel lehet már tenni. Ezért kísérleti gyártás és nem sampling, a termék szempontjából ez már végleges állapotot tükröz. A gyártósor szempontjából nincs még véglegesítés. A GDDR5X is kísérleti gyártásban volt az 1080 megjelenése után jó három hónapig. Ugyanígy a HBM a Fiji esetében. Ahogy a HBM2-nél is a Xilinx a kísérleti gyártás fázisában rendelt. A GDDR6-nál sem lesz másképp. Ha nincs konkrét termék a kísérleti gyártás során, akkor baromira nehéz valamit tömeggyártásra állítani. :)

    (#16099) core i7: Semmit.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Oliverda

    félisten

    válasz Abu85 #16101 üzenetére

    Konkrétan hol beszél kísérleti gyártásról a cég? Mert a Hynix egy szóval sem említ risk productiont.

    "A GDDR5X lekerült a fókuszról, mert mocskosul drága."

    Pontosan mennyibe kerül?

    "Minden negyedik-ötödik magyar funkcionális analfabéta – derült ki a nemzetközi felmérésekből."

  • Abu85

    HÁZIGAZDA

    válasz Oliverda #16102 üzenetére

    A Hynix erről sosem beszél, mert mindig risk productiont kell érteni a listázott termékeire, és a szállítástól számítva négy hónappal állnak át a tömeggyártásra. Ez a Hynixnál mindig így van, a HBM-nél is így volt.

    Már nem listázzák, mert mindenki a GDDR6-ra várt, de a volt róla szó a Foxconn információi szerint, hogy az Xbox One X GDDR5X-szel jön, viszont letettek róla, mivel 7x-es volt egy memóriachip ára a GDDR5-höz képest. A GDDR6 ára csak háromszor annyi lesz. Innentől kezdve a GDDR5X ugyanott végzi, ahol a GDDR5M végezte. Amelyik szabványt nem veszi át másik gyártó, az nem tud elterjedni, mert nem alakul ki az árverseny, sőt, az áremelés a jellemző.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Tyrel

    őstag

    Tök jók ezek a tömbház Volták csillió giga VRAM-al meg AI gyorsítással meg mindennel, de melyik lesz közülük az amelyik egy átlag parasztnak való?
    Értsd. kb. ami most a GTX 1060 kategóriája abban a sávban mikor lesz Volta és pontosan mi neki a neve?

    Turenkarn

  • Abu85

    HÁZIGAZDA

    válasz Tyrel #16104 üzenetére

    MR-Volta néven van a roadmapon. Nem tudom mit jelent az MR. De ez lesz a paraszt-Volta. 384 bites memóriabusz és 24/48 GB GDDR6 memória van mellé írva. 4 GPC lehet benne, de a GPC-ken belüli felépítés a paraszt-Voltában eltérhet, így a shaderek számát még nem tudni.

    Azt a Voltát, amit te szeretnél még nem jelöli a roadmap. Valószínűleg a GTX 1060 helyére majd valamikor egy év múlva lesz Volta. MR-Volta/2 tűnik reálisnak.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Tyrel

    őstag

    válasz Abu85 #16105 üzenetére

    Köszi!

    Miért raknak ilyen brutál sok memóriát rájuk?

    A játékok még nagyon sokáig nem fogják kihasználni mert a konzolokban sincs több memória + nem várható el a PC piactól sem, hogy egyik napról a másikra ilyen huszon-X GB-os kártyákat vegyenek (azon is csodálkoznék ha a 4GB VRAM-ot elérné az átlag)...
    Nem mintha a Vega jól sikerült volna de ezt a konkrét "problémát" sokkal jobban oldották meg: értelmes mennyiségű VRAM amit opcionálisan lehet a rendszermemóriával bővíteni, ha valami csoda folytán szükség lenne rá mielőtt maga a GPU elavul.

    Turenkarn

  • TESCO-Zsömle

    félisten

    válasz Tyrel #16106 üzenetére

    Emlékeim szerint az Ethereum memória-igénye folyamatosan nő...

    Sub-Dungeoneer lvl -57

  • Abu85

    HÁZIGAZDA

    válasz Tyrel #16106 üzenetére

    Valószínűleg azért, mert arra számítanak, hogy megint ugrik egyet a memóriaigény, mint nemrég, amikor 2 GB nagyon elég volt, majd pár hónapon belül hirtelen 8 GB lett az ajánlott. 24 GB-tal eléggé be vannak biztosítva egy ilyen váratlan ugrás előtt. Az is lényeges, hogy nekik úgy kell számolni, hogy 384 bites a buszuk, tehát minimum 12 memóriachipet kell használni. Vagyis ennél az egyel kisebb opció a 12 GB, de az 2018-ra nem egy életbiztosítás. A 48 GB-ot valszeg a Quadro kapja. Aztán nyilván lehet olyan gyártó, amelyik hozza GeForce-ra is... :D

    A konzol ilyen szempontból tökmindegy. A PC-n se kellene tizenx GB memória, ha nem az operációs rendszer két fő folyamata (Mm és VidMm) felelne az alapszintű menedzsmentért. De mivel ezek felelnek, a PC-ben jóval pazarlóbb a memória és elsődlegesen a videomemória felhasználása. Emiatt a konzolban hiába van jóval kevesebb memória, annak a felhasználása sokkal hatékonyabb, mert ezekben a gépekben az operációs rendszer azt is tudja, hogy odaadja a futtatott programnak, ha az elkéri tőle. Innentől kezdve egy rakás olyan dolgot csinálhat a program, ami PC-n nem lehetséges.
    Mindezek mellett a konzol mindig eléggé célirányosan van optimalizálva, míg a PC-nél a fejlődés folyamatos. Jön a 8K, és az nem csak abból áll, hogy 8K-s lesz a felbontás, hanem ehhez olyan textúrákat is tervezni kell, hogy a kijelző összes sorában az összes pixel lehetőség szerint egyedi texeleket lőjön ki. Sokszor még a 4K-ra sincsenek tervezve a mai textúrák, szóval eléggé van feljebb. Figyelembe kell venni olyan dolgokat is, hogy mit akar kezdeni az NV a DX12-es fícsőrökkel. Például a volume tiled resources azért nem használt fícsőr manapság, mert nincs normális textúraformátum hozzá. Ahhoz, hogy ezt alkalmazd legalább 64 darab BC6/7 textúrára van szükség, ami azért zabálja a memóriát. Itt kérdés, hogy a Volta támogat-e ASTC-t, mert azzal már van 3x3x3-es vagy 6x6x6-os blokk támogatás, ami sokkal kedvezőbb, de még így is sok. Ezt érdemes betervezni, mert a Vega is kezeli. Szóval van egy rakás olyan lehetőség, ami drasztikusan növeli a memóriaigényt, és lassan a hardverek tudása is megvan a használatukhoz, így nem csak papírsárkányok lesznek az API-ban.
    Az nem gond, hogy sok a 4 GB-os kártya. Fícsőr on/off kapcsoló és meg van oldva.

    Igen, csak az NV-nek nincs x86/AMD64 licence, hogy egy olyan megoldást használjon, amilyet az AMD Vega. Enélkül brute force-ban kell gondolkodni. Az adott intervallumot tekintve ez se sokkal rosszabb. Lényegi hátrányt csak a professzionális piacon jelenthet.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Tyrel

    őstag

    válasz Abu85 #16108 üzenetére

    Aham, és azt inkább ne kérdezzem hogy egy 24GB GDDR6-al megáldott kártya az óriási GPU-jával meg a tovább emelkedő GDDR árakkal mennyibe fog kerülni?...

    Árazás szempontjából már egy ideje nagyon rossz irányba tart a videokártya piac, szerintem még a bányászok nélkül is. Egyre feljebb mászik a középkategória ára, a felsőházat meg ne is említsük, erre még tovább rontanak ezen, ráadásul tudatosan?...
    Ez mi ez hogy "áhh nem csinálhatunk HBC-t, de nem baj, a sok hülye úgy is megveszi majd a kártyáinkat bármennyit is kérünk értük, szóval mehet a brute force, pakoljuk meg rendesen memóriával, úgy se nekünk fog fájni"...

    Hát kösz... Nagyon nem vagyok eldőlve a Vegától de ha valaha is kapható lesz az MSRP-jén úgy egyre vonzóbb ajánlatnak tűnik... :(

    Turenkarn

  • westlake

    félisten

    válasz TESCO-Zsömle #16107 üzenetére

    Azért ott még nem tartunk. Tudomásom szerint nem exponenciális a növekedés. Szerintem jövő év végéig kihúzzuk 4 GB-tal.

    Play nice!

  • Oliverda

    félisten

    válasz Abu85 #16103 üzenetére

    "A Hynix erről sosem beszél, mert mindig risk productiont kell érteni a listázott termékeire"

    Ha sosem beszél, akkor honnan jött a risk production?

    "Ez a Hynixnál mindig így van, a HBM-nél is így volt."

    Van vagy volt? A HBM pedig nem annyira releváns, össze sem lehet vetni a két fejlesztés komplexitását.

    "letettek róla, mivel 7x-es volt egy memóriachip ára a GDDR5-höz képest."

    Tök jó ez a 7x, csak mihez képest? 7x$0.50 vagy 7x$2.50?

    Egyébként a Micron év elején indítja a tömegtermelést:

    "By leveraging our G5X based high speed signaling experience from roughly 2 years of design, mass production, test and application knowledge, I am confident we are well positioned to bring the industry’s most robust G6 to mass production by early 2018."

    [link]

    Ez pedig elsősorban az AMD számára lehet rossz hír, mert így vagy GDDR5-tel adják ki a többi Vegát, vagy hónapokat várnak, addigra viszont már jó eséllyel ott lesz a Volta.

    Tyrel: Legfeljebb a következő Titan Xn jöhet 24 giga RAM-mal, de még egy darabig felesleges lesz játékokhoz ennyi memória, illetve a gyártóknak sem érdekük, hogy közelebb hozzák egymáshoz a konzumer és a professzionális vonalat.

    [ Szerkesztve ]

    "Minden negyedik-ötödik magyar funkcionális analfabéta – derült ki a nemzetközi felmérésekből."

  • Tyrel

    őstag

    válasz Oliverda #16111 üzenetére

    Miért ne adhatnák ki a kisebb Vegákat 4GB HBM-el? Legalább nyerne valami értelmet a HBCC, mert jelenleg nem sok van neki... :U

    Amúgy nekem még mindig nem tiszta a Volta termékpaletta, de ha a paraszt-Voltára tényleg még egy évet kéne várni akkor annyira nem is érdekes már, annyit nem fogok...

    Turenkarn

  • Oliverda

    félisten

    válasz Tyrel #16112 üzenetére

    Azért, mert a középkategória tetejétől kezdve valószínűleg nem sokan vennének meg egy 4 gigás kártyát, akár tudja azt amit a 8+ gigások, akár nem. Ilyen szempontból pedig nem sok haszna van a felsőkategóriában a HBCC-nek, de az APU-knál és a középkategória aljától lefelé még jó lehet valamire.

    [ Szerkesztve ]

    "Minden negyedik-ötödik magyar funkcionális analfabéta – derült ki a nemzetközi felmérésekből."

  • Abu85

    HÁZIGAZDA

    válasz Tyrel #16109 üzenetére

    Nem lenne sokkal olcsóbb 12 GB-tal sem. Úgy is 12 memórialapka kell, meg így is. Az a lényeg, hogy nem pont a kapacitás határozza meg leginkább az árat, hanem sokkal inkább a felhasznál chipek száma.

    HBCC-hez hasonló rendszert az NV tényleg nem aktiválhat a PC-n. Ha a seggüket verik a földhöz az Intel akkor sem fog nekik adni x86 licencet. Pedig a Volta képes arra, amire a HBCC (kivéve a bájtszintű elérés, de ezt most hagyjuk), csak IBM Power 9 kell neki hostként.

    Azt vedd számításba, hogy a Volta és a Vega is egy 2018-as igényekre reagáló termék. Minden elemükkel arra készültek, hogy a mai programoktól gyökeresen eltérő igénybevételnek lesznek kitéve. Ez a Vegán már látszik, és a Volta esetében is tudni ilyen lépésről, mint például az L1-LDS összevonása, ami egy mai programban nyilvánvalóan hátrányos lesz (kivéve a Dirt 4 occupancy limites beállítással), de mondjuk jövő nyár környékén már előnyös lesz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Oliverda

    félisten

    válasz Abu85 #16114 üzenetére

    Hol használ a HBCC x86-os licencet, és pontosan melyiket?

    [ Szerkesztve ]

    "Minden negyedik-ötödik magyar funkcionális analfabéta – derült ki a nemzetközi felmérésekből."

  • Abu85

    HÁZIGAZDA

    válasz Oliverda #16111 üzenetére

    A Hynixnél mindig úgy jelenik meg egy termék, hogy amint elkezdik szállítani, onnantól pár hónapig risk production van. Ennek az a fő célja, hogy a gyártók a sample fázishoz képest jóval nagyobb mennyiségben jussanak a termékhez, de mégis legyen visszajelzésre lehetőség, hogy ha nagyon szar a kezdeti gyártósor, akkor ne az legyen rögtön véglegesítve, mert a Hynixnak sem érdeke évekig szart gyártani.

    HBM-nél már csak volt. A HBM2-nél még van. A HBM pedig ugyanolyan memória, mint a többi. Ugyanúgy számít, hogy a gyártósor milyen állapotban kerül véglegesítésre.

    Valószínűleg a mindenkori GDDR5 árhoz van kötve a GDDR5X árfolyama, mivel ha nem így lenne, akkor nagyon durva emelkedésbe kezdene, és az kedvezőtlen lenne a GDDR5X-et rendelő cégeknek.

    A Micron mindegy, mert az NV a Hynixtól fog rendelni elsődlegesen.

    Én úgy tudom, hogy a többi Vega HBM2-vel jön.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • westlake

    félisten

    válasz Tyrel #16112 üzenetére

    Ez kb. olyan lenne, mint kiadni egy olyan Porsche modellt, ami csak 130-cal tud menni maximum.

    Play nice!

  • Abu85

    HÁZIGAZDA

    válasz Oliverda #16115 üzenetére

    Az ilyen koncepcióknál az összes multiprocesszorba kell építeni egy ATS (address translation services) egységet. Ennek kell támogatnia az adott host processzor memóriamodelljét, hogy az operációs rendszer beavatkozása nélkül is képes legyen látni a hardver a rendszermemóriát, illetve írni bele lényegében blokkszinten. A Voltában az ATS Power9-re van tervezve, míg a Vegában x86/AMD64-re. Emiatt van az, hogy a Volta ezt a képességet csak Power9-es CPU mellett tudja aktiválni, ahogy a Vega HBCC is csak x86/AMD64-es CPU-val működik.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz westlake #16117 üzenetére

    Ez a Vegánál már nem így működik. Te határozod meg, hogy mennyi memória legyen rajta egy driverben található csuszkán keresztül. Maximum 64 GB lehet az aktuális meghajtókkal, de professzionális szinten 2 TB a limit, ezt támogatja az RX Vega is, csak nem aktiválható, mert a mai rendszerekre overkill. Az, hogy mennyi van a VGA-n ezzel a HBCC-s modellel gyakorlatilag lényegtelen. Még a 2 TB-os limittel sincs lassulás. Nem igazán mérhető ma, hogy hol van a határ, mert előbb fut ki a GPU az erejéből, minthogy a HBC limitálja a feldolgozást. Elvileg 512 TB-ig lehet elmenni.

    Hasonlók a tapasztalatok a GV100-as Volta és egy IBM Power9-es duó esetében is.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Oliverda

    félisten

    válasz Abu85 #16116 üzenetére

    Ebből megint csak semmilyen tény nem derült ki. :(

    #16118: És pontosan hol jön itt a képbe az x86 utasításarchitektúra licence?

    it's exactly how it's down on Maxwell, including storing all vertex parameters on cache, the only thing that I don't see is if AMD is caching transformed geometry as well and pixel shader output. Heck even to the point of baking compression into the L1 data bus this is Pascal.

    To make it clear, the Overs-subscription, Page Migration and Pinning is more than likely to be irrelevant, the HBCC parts that cover the new Maxwellian cache topology are quite useful.

    [link]

    Ez alapján az Nvidia már korábban implementálta a rendszert, csak mivel játékoknál felesleges, így nem engedélyezték.

    "Minden negyedik-ötödik magyar funkcionális analfabéta – derült ki a nemzetközi felmérésekből."

  • Abu85

    HÁZIGAZDA

    válasz Oliverda #16120 üzenetére

    Úgy, hogy az utasításarchitektúra nem csak utasításokból áll. Annak része a memóriaarchitektúra is.

    Az NV a Pascalban implementált először egy hasonló rendszert, de annak az volt még a hátránya, hogy CUDA-specifikus volt. Emiatt csak CUDA programnyelven üzemelt, illetve csak a GP100 tudta. A GV100 az első NV hardver, ami tulajdonképpen rendszerszinten, vagyis nem specifikusan egy programnyelvre/API-ra vonatkozóan oldja meg a GPMP-t, mint fícsőrt. Ez azért fontos, mert így OpenCL-re is működni fog, ami lényeges tényező egy olyan piacon, ahol kvázi kész szoftverekre vásárolnak hardvereket. Viszont ehhez már kellett az ATS a multiprocesszorokba.

    A Volta és az Vega GPMP-je között csak annyi az eltérés, hogy a GV100 Power9-cel kompatibilis, míg a Vega 10 x86/AMD64-gyel, illetve a GV100 csak blokkszintű elérését támogat, míg a Vega 10 blokk- és bájtszintűt is. Ezért van ugye az SSG termékvonal.
    Egyébként a Vega 10 is üzemképes Power9 mellett, ahogy a GV100 is x86/AMD64 procival. Csak egyik GPU sem tudja lefordítani a memóriacímet, mivel nem ismeri az ATS egység a host processzor memóriaarchitektúráját.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Oliverda

    félisten

    válasz Abu85 #16121 üzenetére

    Akkor légyszi erről valami hivatalos dokumentációt mutass, mert látszólag rajtad kívül senki más nem tud x86-os licenc függőségről.

    "A Volta és az Vega GPMP-je között csak annyi az eltérés, hogy a GV100 Power9-cel kompatibilis, míg a Vega 10 x86/AMD64-gyel, illetve a GV100 csak blokkszintű elérését támogat, míg a Vega 10 blokk- és bájtszintűt is."

    Amennyiben ez így van, akkor ennek mindössze az lehet az oka, hogy az AMD-nek ott a saját processzora amihez nyilván a saját GPU-ját képzeli el, az Nvidia pedig az IBM-mel közösen dolgozik olyan projekteken, ahol ennek jelentősége lehet, tehát elsősorban szervereknél, szuperszámítógépeknél. Egy szó mint száz, GeForce/Radeon vonalon ennek semmi jelentősége nincs és szvsz még egy jó darabig nem is lesz.

    "Minden negyedik-ötödik magyar funkcionális analfabéta – derült ki a nemzetközi felmérésekből."

  • Abu85

    HÁZIGAZDA

    válasz Oliverda #16122 üzenetére

    Mondták a HBCC-ről, még a decemberben, hogy csak Intel/AMD host CPU-val működik. Ha IBM mellé rakod, akkor üzemképtelen, mert nem támogatja annak a memóriaarchitektúráját. Na most ebből világosan következik, hogy az ATS-nek az x86/AMD64 memóriaarchitektúrára fordít, vagyis minden ilyen hardverhez szükséges az x86/AMD64 licenc legalább a memóriaarchitektúrára vonatkozóan.

    Az NV-nek nincs is más választása. A Power9 licencelhető, míg az x86/AMD64 nem az. Az AMD licencelhetné a Power9-et, de nyilvánvaló, hogy a saját processzoraikhoz szeretnének dolgozni.

    Radeon vonalon annyi jelentősége van, hogy nem kell az AMD-nek 30-50 GB-os memóriákban gondolkodni. Elég kicsire tervezni a HBC-t és a HBCC majd megoldja a többit. Ugyanígy a Radeon Pro vonalon a HBCC megkíméli a filmstúdiókat az assettek feldarabolásától. Egyszerűen csak beállítanak a driverben egy 512 GB-os szegmenst, vagy ha nincs elég rendszermemóriájuk, akkor vesznek egy SSG-t.
    Gaming vonalon az NV-nek sem lesz ebből semmi gondja. Raknak 24 GB-ot a hardverre is ellesznek. Pro vonalon meg mehet a 48 GB. Nem létszükséglet a HBCC, csak marha sok memória kell nélküle.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Oliverda

    félisten

    válasz Abu85 #16123 üzenetére

    "Na most ebből világosan következik, hogy az ATS-nek az x86/AMD64 memóriaarchitektúrára fordít"

    Oké, tehát szerinted. Így már mindjárt más.

    Persze, ha ennyire biztos vagy benne, akkor lökd a szabadalmakat amelyekről szó van.

    "Az NV-nek nincs is más választása. A Power9 licencelhető"

    Az NV-nek nem kell licencelni semmit, mert nem épít terméket Power9-re, sőt, az IBM épít be NV technológiát (NVLink blokk) a saját processzorába, nem pedig fordítva.

    Az NV gondolom azért forgalmaz saját tervezésű, 130 000 dolláros rendszert Intel processzorokra építve, mert csak POWER-rel lehet kiaknázni a termékek képességeit. Világos mint a nap.

    "Radeon vonalon annyi jelentősége van, hogy nem kell az AMD-nek 30-50 GB-os memóriákban gondolkodni. Elég kicsire tervezni a HBC-t és a HBCC majd megoldja a többit. Ugyanígy a Radeon Pro vonalon a HBCC megkíméli a filmstúdiókat az assettek feldarabolásától. Egyszerűen csak beállítanak a driverben egy 512 GB-os szegmenst, vagy ha nincs elég rendszermemóriájuk, akkor vesznek egy SSG-t."

    Ezt az AMD PR csapata sem fogalmazhatta volna meg szebben, grat!

    [ Szerkesztve ]

    "Minden negyedik-ötödik magyar funkcionális analfabéta – derült ki a nemzetközi felmérésekből."

  • Abu85

    HÁZIGAZDA

    válasz Oliverda #16124 üzenetére

    Inkább mond el, hogy szerinted hogyan tud egy ATS x86/AMD64-es laptáblákat elérni licenc nélkül?

    Az NVIDIA része az OpenPower konzorciumnak, így joga van felhasználni a Power9 egyes részeit. A Power9 lényegében úgy licencelhető, hogy az adott cég az OpenPower alapítvány tagja lesz. [link] - alul megtalálod a tagokat.

    Az IBM-mel van egy szerződése az NV-nek, hogy a kölcsönösen támogatják egymás törekvéseit a HPC vonalon. De itt sincs az NV-nek más választása. Az Intel és az AMD nem fog NVLinket építeni a processzoraikba, míg az AMD mondjuk megoldja magának a GMI-t.

    Azért forgalmaznak Intel CPU-t, mert nagyon sok helyen x86/AMD64-re van szükség. Nyilván ha tehetnék, akkor már rég ott lenne a Voltában az x86/AMD64-gyel kompatibilis ATS, de nem ad nekik licencet az Intel és az AMD. Egyelőre tehát a Volta ilyen: On IBM Power platforms, new Address Translation Services (ATS) support allows the GPU to access the CPU’s page tables directly. [link]

    [link] - Akkor nézd meg, hogy meddig juttat el a HBCC, és meddig egy szimpla VRAM konstrukció.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • gbors

    nagyúr

    Azon töröm a fejem, hogy vajon az nVidia akarja-e tartani az utóbbi 3 generációnál látott 60-70%-os növekedést chip-kategórián belül, és ha igen, hogyan. Annyit látunk a Voltából, hogy GPC-nként 7 SM lesz, és ennyit talán még tud is etetni a setup és a geometria, bár kicsit kezd necces lenni. Viszont backend terén már a Pascal sem annyira hűdedurva, tehát ott valaminek kellene történnie, különben a 40%-kal több ALU hoz kőkemény 20-25% extra teljesítményt.

    A ROP-ok duplázását á lá Maxwell most nem tartom túl valószínűnek, már csak azért sem, mert a 128 ROP-hoz (GV104 esetén) a memóriával is kellene valamit csinálni, miközben a Maxwell már két nagyon erős optimalizációt elsütött (DCC, tiling). Azt sem hiszem, hogy a GV104-re ráakasztanának 4db HBM2 stacket, bár mondjuk lehet, hogy a Vegán látott két stack is elég lenne, hiszen az is 50-60%-kal szélesebb csövet eredményez. Viszont akkor itt megint felmerülne a probléma, hogy hogyan skálázzanak lefelé a GV106-ra - 1 HBM stackkel már nagyon elvetemült lenne :)

    Mi van viszont akkor, ha a jelenlegi backend konfigurációt feljebb viszik egy kategóriával, azaz a GV104 kapja a 384bit / 96 ROP-ot, a GV106 pedig a 256-bit / 64-et? Ez akkor a nagyobb chipnél 50%-kal jobb backendet jelent, a kisebbnél meg ugyan csak 33% az előrelépés, de a GP106-nak voltak tartalékai backend terén, ott nem muszáj akkorát ugrani. Ha erre rátesznek még 10-15% core órajelet a Pascalhoz képest, akkor meg is van a 60-70%-os generációs javulás.

    Vélemény?

    Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

  • Abu85

    HÁZIGAZDA

    válasz gbors #16126 üzenetére

    Nem biztos, hogy annyi lesz, mert az SM száma GPC-nként változhat a Tesla és a sima dizájnok között.

    A GV104-en, már ha követik a korábbi kódjelzést, akkor 384 bit és GDDR6 memória lesz. A HBM2 nekik azért nem jó, mert kicsi lenne a VRAM. Az AMD-nek elég, mert bevágod a driverben a HBCC szegmenset 16 GB-ra és bőven elvagy akkor is, ha a kártyán fizikailag csak 4 GB van. Az NV-nek mindenképpen fizikai memóriában kell gondolkodni, tehát bármennyire is csábító a HBM2, a GDDR6-tal nagyobb kapacitást lehet építeni, és ez jelenleg fontosabb.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • gbors

    nagyúr

    válasz Abu85 #16127 üzenetére

    Persze, semmi nem biztos, de eddig az volt, hogy az ALU-k száma GPC-nként ugyanannyi. SM-ek száma ugye dupla a prof designban, hogy jobban el legyenek látva az ALU-k infrastruktúrával.

    A 384-es info honnan jön? Mert az ugye predesztinálja a memória-mennyiséget és a ROP-okat is - hacsak persze nincs valami drasztikus váltás az eddigiekhez képest, de ez a GV100-ból nem látszik.
    Ill. akkor kérdés lesz még, hogy a raszterizációs kapacitással kezdenek-e valamit - marad 16 / GPC, vagy azt is felgyúrják 24-re, hogy bírja a ROP-okat etetni. Az pont jó lenne a 106-hoz is.

    Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

  • válasz gbors #16126 üzenetére

    Én órajelnövekedést nem várnék... főleg az gyári OC kártyákhoz képest.

    Viszont a HBM2-t igazán rátehetnék... :)

    [ Szerkesztve ]

    Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m

  • gbors

    nagyúr

    válasz FollowTheORI #16129 üzenetére

    Valamennyi szinte biztosan lesz, már csak azért is, hogy a marketing anyagba bele lehessen írni, hogy moar klokz. A gyári OC kártyákhoz képest a gyári OC kártyák fognak több órajelet hozni, ha a ref nem is.

    A HBM2 elég feleslegesnek tűnik a GV104-re. A provizórikus GV102-re már reálisabb lehet, hacsak a lentiek mentén az nVidia nem akar 512-bites memóriát. Eddig egyszer csináltak olyat, az a chip műszakilag masszív bukta lett, nem tudom, visszatért-e a kísérletező kedv :)

    [ Szerkesztve ]

    Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

  • Abu85

    HÁZIGAZDA

    válasz gbors #16128 üzenetére

    Benne van a gyártóknak leadott roadmapban. MR-Volta lapka van benne. Nem tudom, hogy mit jelent az MR. De 384 bites memóriabusza van, GDDR6 memóriákat támogat GDDR5 backfall móddal (GDDR5X nincs, legalábbis nincs jelezve), illetve az van mellé írva, hogy 24/48 GB. Ez eléggé tuti forrásból való infó, korábban az early Intel dolgokat is nagy pontosságból megmondta.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • gbors

    nagyúr

    válasz Abu85 #16132 üzenetére

    Aha. A 24GB memória nekem a GV102-re utal.

    Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

  • janos666

    nagyúr

    LOGOUT blog

    válasz Abu85 #16114 üzenetére

    Gondolom azt sem adna nekik az Intel, de elvben nem lenne elképzelhető egy korlátozott license, ami körülírja, hogy csak PCI-E buszon csatlakozó gyorsító, és csak ilyen jellegű dolgokra használhatja (de nem építhet saját teljes értékű x86 CPU-t, vagy akár csak aköré alaplapi chipset-et, stb), netán kiegészítve még a gyakorlatban valami olyasmivel, amitől (mesterséges limitáció formában) csak Intel CPU mellett működik (AMD mellett letiltja a driver, mondjuk valami burkolt formában, hogy nem kimondottan Intel-re ellenőriz, hanem valami kiterjesztésre, ami "véletlenül" csak Intel CPU-knál van és igazából nem is kell ehhez), hogy az Intel-nek megérje legalább megfontolni a dolgot (reflexszerű passz helyett)? :U

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

  • Abu85

    HÁZIGAZDA

    válasz janos666 #16134 üzenetére

    Pont az a baj, hogy az Intelnek nem tetszik az NV ténykedése ezen a piacon. Ha haszna lenne belőle, már adtak volna nekik licencet, de mivel az NV az Intelre nézve inkább kártékony, így soha semmit sem fognak nekik adni. Még a régi szerződésüket sem újították meg, hogy az NV nehogy alkupozícióba kerüljön. Az Intelnek az az elsődleges érdeke, hogy az NV innen tűnjön el. Nyilván ezt nehéz elérni, de ha lehetőségük van rá, akkor tesznek azért, hogy gyengítsék őket. Az Intelnek úgy általánosan is baja van a dedikált GPU-kkal, nem akarja ezek létezését, mert veszélyeztetik a hosszabb távú terveiket.

    Azt is számold bele, hogy mit nyernének vele. Aki akar ilyen hardvert vesz magának Vegát. Az Intelnek olyan mindegy, hogy milyen dGPU-t veszel, semmiféle előnyük nem származik belőle, hogy Vega helyett valamilyen GeForce-ot vásárolsz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Loha

    veterán

    válasz janos666 #16134 üzenetére

    Azon kívül, hogy most a HBCC az AMD következő nesze semmi, fogd meg jól, de hype-olható feature-je, mit csinálna az NV az x86-os licenccel 16GB/s -es PCIe buszon keresztül? :U

    Jelenlegi csúcskártyák 500GB/s körüli memória-sávszélességgel gazdálkodnak, és még az alsó kat. GT 1030 -nak is 48GB/s áll a rendelkezésére...

  • Abu85

    HÁZIGAZDA

    válasz Loha #16136 üzenetére

    Ugyanazt, amit az AMD. Csak a lapokat mozgatná komplett allokációk helyett. Ez azért előnyös, mert ha például csak 4 kB-nyi információ kell, akkor elég azt beírni a GPU memóriájában, míg ma ugyanezért lehet, hogy 100-200 MB-ot is mozgatni kell a PCI Express buszon keresztül, hiába kell ebből csak 4 kB. Emellett a hardveres menedzsment is előny.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Loha

    veterán

    válasz Abu85 #16137 üzenetére

    AMD-nél is nulla gyakorlati haszna van, de nem is a PC-s játékok miatt került be HBCC, hanem a GPGPU vagy vmelyik jövőbeli konzol miatt.

    Az régen rossz, ha 4kB-os morzsák kimaradnak a VRAMból, és ha már töltögetni kell, érdemes nagyobb darabokban, mert úgy is kellene fog más is.

    [ Szerkesztve ]

  • Abu85

    HÁZIGAZDA

    válasz Loha #16138 üzenetére

    A HBCC-nek a konzolokban nincs haszna. Az a probléma amire ez reagál csak PS-specifikus. A konzolon nem létezik.
    A GPGPU-ban sincs igazából haszna, maximum a HPC környezetben. Ahol ez még hasznos az a sugárkövetés, illetve minden olyan grafikai feladat, amire nem elég a VRAM. Tipikusan ide tartozik a valós idejű leképezés is, vagyis a játék.

    Pont az lényeg, hogy felesleges 100 MB-os allokációkat másolgatni a VRAM és a rendszermemória között, ha abból csak 4 kB-nyi adatra van szükség. Egyszerűen a maradék adat csak állni fog, de nem tudod kidobni, mert kell belőle egy nagyon aprócska szeletecske.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Loha

    veterán

    válasz Abu85 #16139 üzenetére

    A HBCC pont a konzolok esetében előnyös, mert nincs limitáló PCIe busz, és a gyenge prociknak jól jön minden segítség, mint pl. a HBCC hardveres menedzsmentje.

    GPGPU -ban, nyilván HPC környezetben fog csak rendelkezésre állni a PCIe-nél gyorsabb busz, hogy értelme legyen az egésznek, és ott fognak a kártyákon lévő RAMnál jóval nagyobb adathalmazokkal is dolgozni.

    Valós idejű leképezés és a játék is pont olyan grafikai feladat, aminél minden aktuálisan látható dolognak bele kell férnie a VRAMba, mert különben diavetítés lesz, ahogy ez az általad korábban linkelt videón remekül látszik is.

  • Abu85

    HÁZIGAZDA

    válasz Loha #16140 üzenetére

    A konzoloknál a HBCC azért nem előnyös, mert ez a rendszer arra a problémára reagál, hogy a GPU memóriája, illetve a CPU és a GPU által is elérhető memória között kell mozgatni az adatokat, és ma ennek a hatásfoka rossz, elsődlegesen azért, mert a szoftver menedzseli ezt a folyamatot, és csak allokációkat tud mozgatni. A konzoloknál maga az alapprobléma sem létezik. Nincs több különálló memória, illetve a memória vezérlését sem két OS folyamat (Mm és VidMm) felügyeli, hanem maga a program, ráadásul úgy, hogy az OS ezt a memóriát még csak nem is látja, maga a virtuális memória sem létezik. Tehát minden olyan probléma, amit a HBCC kezel egy nem létező tényező a konzolokon. Ergo nincs mit kezelni ott.

    A PCI Express busz is része a problémának PC-n, mert akkor is nagy adatmennyiséget kell mozgatni a GPU memóriája, illetve a CPU és a GPU által is elérhető memória között, ha csak kis mennyiségű adatot igényel a GPU. Ugyanis a szoftveres menedzsment csak az allokációkra tud kiterjedni, vagyis nem tudod megmondani az operációs rendszernek, hogy az adott allokációból neked csak egy-két lap kell és csak azt töltse be. Muszáj a teljes allokációt betölteni a GPU memóriájába.

    Már ma jóval nagyobb adathalmazokkal dolgozhatnak a játékok, mint amennyi VRAM van a VGA-k többségén. Ezt kínálja a streaming. Persze a fejlesztők nyilván ügyelnek arra, hogy sose szállítsák le az elkészített legjobb minőségű tartalmat PC-re, mert úgy sem futna semmin, ergo kiválasztják azt a minőségi szintet, amivel még jó a program 12 GB VRAM-mal és 16 GB RAM-mal. Ez ugyanakkor csak döntés kérdése. Akár megtehetnék azt is, hogy az elkészített tartalmat a legjobb minőségben is letölthetővé teszik és majd egyszer lesz olyan hardver, amin elindul.

    Amit linkeltél az tartalomvizualizáció. Nem számít, hogy akadozik, mert ehhez hozzá vannak szokva az érintettek, ugyanis a cél az, hogy betöltse a GPU, és meg tudják nézni, hogy az offline renderen hogy néz majd ki a készített tartalom. Ha rosszul, akkor dolgoznak még rajta, és újra ellenőrzik.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Loha

    veterán

    válasz Abu85 #16141 üzenetére

    A konzolos játékok többsége is külön memória területet különít el a CPU-nak és GPU-nak a hardveresen egybefüggő 8GB RAMból, mert így érhető el nagyobb teljesítmény, tehát külön van lefoglalt VRAM a GPU-nak és RAM a CPU-nak, ami között ugyan úgy másolgatni kell, vmint a HBCC nem csak RAM és VRAM között használható, és az extra hatékonyság is jól jön, mert a játék is csak szoftver mint az OS. ;]

    PCIe késleltetése miatt, eleve nem is érdemes ilyen kis mennyiségű adatot (említett 4kB) külön-külön másolgatni, másrészt meg nem is jellemzőek ilyen kis adatcsomagok semmilyen játékban.

    "Már ma jóval nagyobb adathalmazokkal dolgozhatnak a játékok, mint amennyi VRAM van a VGA-k többségén."
    Azért ez elég nagy túlzás ;], a Destiny 2 bétája pl. szőröstül-bőröstül 16GB, és ebben több órányi játékmenet benne van...
    VRAM használatban a szűk keresztmetszetet, meg szokásosan a konzolok jelentik nem a PC.

    Eddig is meg tudták nézni a nagy modelleket egyeben, csak nem volt hozzá elég egy workstation egy VGA-val, de ugye ekkora modelleken nem egy ember dolgozik egy gépen általában, szóval sok jelentősége nincs.

    [ Szerkesztve ]

  • Abu85

    HÁZIGAZDA

    válasz Loha #16142 üzenetére

    Nem így van. Eleve nincs a konzoljátékoknak 8 GB memória. 5-6 GB közötti terület van, illetve az XOX-en 8 GB. Ezt a program konkrétan lefoglalhatja. Elküld az operációs rendszernek egy igényt, és az OS ahhoz a területhez többet nem nyúl. Nincs se virtuális memória, se semmilyen OS folyamat. Ezt a legtöbb program, úgy a megjelent játékok 95%-a egybefüggő területként foglalja le. Ennek azért van jelentősége, mert az allokáció a már lefoglalt memórián belül sokkal gyorsabbá válik, illetve ezáltal olyan dolgokat tudnak tenni a fejlesztők, hogy az egyes blokkok között felszabadított részekre egyszerűen rátolják a következő blokkot. Ez tulajdonképpen a defragmentációs stratégiákat teszi nagyon hatékonnyá. Persze van olyan program, ami fix blokkméretekkel dolgozik, de olyan is, ami a blokkokat a memória végére és elejére pakolja, így a lefoglalt terület fizikailag középen telik meg, ami kedvezőbb, mintha csak egy irányból történne a blokkok lefoglalása.
    Másolgatni azért nem másolgatna, mert minek. Ugyanazt a lefoglalt memóriát ugyanolyan sebességgel éri el a GPU és a CPU is. Csak akkor érdemes az OS virtuális memóriáját használni és az OS menedzsment folyamatait igénybe venni, ha nagyon nem számít a játéknak a teljesítmény, mert ez a módszer sokkal lassabb.

    Abban a működési modellben, ahogy a konzolon futnak a programok a HBCC egyszerűen nem tud segíteni. Igazából erre PC-n is csak azért van szükség, mert az OS menedzseli a memóriát és a VRAM-ot két teljesen általánosra paraméterezett folyamaton keresztül. Ha mondjuk elérhető lenne az PC-n, hogy az OS-től kérjen a fejlesztő x GB memóriát és y GB VRAM-ot, amit az OS nem is lát, akkor ide sem kellene HBCC. Csak erre a Windows nem ad lehetőséget. Nyilván jó okkal, mert ilyenkor a fejlesztőnek egyenként kell lekezelnie minden lehetséges memóriakonfigurációt, amiből azért van pár száz. Konzolon ez azért reális alternatíva, mert egy géptípusra csak egy konfiguráció van. Nem tudod tetszőlegesen bővíteni a memóriáját.

    Igazából eléggé jellemző. A frame-ek között rendkívül kevés új adatra van szükség, mert nagyon keveset változik a jelenet.

    Nyilván olyan játékra gondoltam, amelynek a motorja képes kezelni 1kx1k-nál nagyobb textúrákat is. A Destiny 2-be hiába raknának nagy felbontású textúrákat, a motor nem támogatja őket.
    A konzolok teljesen más menedzsmentet kapnak, mint a PC. Egymást ez a két platform ma már nem limitálja, mert a tartalom szempontjából nem igazán drágább mindenből jobb minőségűt csinálni, majd azt a platform igényeire leskálázni.

    Nem tudták megnézni. Eddig az volt a bevált recept, hogy a tartalomvizualizálásnál a tartalmat több kisebb szeletre bontották, akár ezerre is, hogy beférjen az a kis szelet a VRAM-ba. Ezután egyenként töltötték be ezeket és egyenként ellenőrizték. A HBCC ezt szükségtelenné teszi, mert elméletben 512 TB-ig a hardver automatikusan lekezeli a problémát. A gyakorlatban még csak 7 TB-ig próbálták ki, ezt látod a videóban. Eredetileg ezt a 7 TB-os adatot fel kellett osztani 16 GB-os részekre, és azokat egyenként tudtad betölteni, ha az egyiket ellenőrizted, nézted a másikat.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Loha

    veterán

    válasz Abu85 #16143 üzenetére

    Ahogy írtam, a konzolos játékok többsége külön memória területet különít el a CPU-nak és GPU-nak a hardveresen egybefüggő 8GB RAMból (amiből az OS-nek is van elkülönítve természetesen), mert így érhető el nagyobb teljesítmény, a koherens memória a gyakorlatban lassú, ezért érdemesebb másolgatni.
    The problem with unified memory is memory coherence. Even on consoles, where we see highly integrated SoCs (system on chips), we have the option to map the memory addresses ranges basically 'for CPU', 'for GPU' and 'fully coherent'. And being fully coherent is really not that useful as it wastes performance.

    A CPU sokkal kisebb sávszélességgel (~20GB/s) fér hozzá a közös GDDR5 -höz mint a GPU (~178GB/s), és ráadásul ezeket a sávszélességeket is csak külön-külön tudják, egyszerre nem.

    RotTR PC-n használ 4K x 4K textúrákat, konzolom meg nem, és az egész játék elférne egy Quadro P6000 24GB memóriájában...

    Akkor hiszem el, hogy az egy 7TB-os render, ha mutatsz erről linket, egyébként tippre ~20GB és egy Quadro P6000 simán betöltötte volna, de úgy is szét kell darabolniuk, mert senki nem fog 3D modelleket szerkesztgetni 3fps-el...

  • Abu85

    HÁZIGAZDA

    válasz Loha #16144 üzenetére

    De ő a koherenciáról beszél, nem arról, hogy különálló területet csinál. A memória egységes, de kérheted, hogy a lefoglalt részt csak a CPU, csak a GPU, vagy a CPU és a GPU együtt, vagy teljesen koherensen a rendszer érje el. Ez a négyféle megoldás van. A konzoljátékok zöme nagyrészt a CPU+GPU-t kéri, mert így mindig a leggyorsabb a hozzáférés, viszont a memóriaterület nem lesz koherens, de a másolgatást így is teljesen megúszod. A régebbi játékok ezzel még nem éltek, mert csak később adták hozzá a lehetőséget a firmware-hez (ezért írtam 95%-ot). Amelyik játék teljesen koherens területet is akar, az nyilván kialakít egyet. Annak az elérése nagyon lassú, viszont roundtrip nélkül tud a GPU dolgozni a CPU adatain, ami egy frame előny, tehát valamikor megéri.

    A memóriát mindenképpen a memóriavezérlő éri el, és az fixen teljes sávszélességű. A korlátozás onnan kezdődik, hogy hova megy az adat, és aszerint van limitálva a belső adatbusz. Egyetlen esetben van korlátozva a GPU, mégpedig a teljesen koherens hozzáférésnél, mert akkor az adat a GPU felé is a CPU adatbuszán keresztül közlekedik.

    A Forza 7 pedig 100 GB. Nőnek a lehetőségek.

    Az az adat a Baahubali filmhez használ város adata. Az pedig 7 TB. Ez még kicsinek számít a filmek tekintetében. Ennél többet is dolgoznak Hollywoodban. Azt hiszem A barátságos óriás a csúcstartó 3 PB-tal, de a Hobbit harmadik része is 2,3 PB körül van. Ebből a nagy csatajelenet alapjául szolgáló terület 50 TB körüli.
    Ez csak vizualizáció. Itt nem fogják szerkesztgetni. Arra szolgál az egész, hogy lássák az offline felhasználás előtt, hogy a modell miképp néz ki. Nyilván az az előnyös, ha egyben látják az egészet, és emiatt van az, hogy Hollywood nem is nagyon dolgozik GPU-kkal, hanem vesznek több tucat CPU-t a feladatra. Ezt Hollywood megteheti, de Bollywood nem, mert egy nullával több lenne a tartalom előállításának végösszege.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • #34576640

    törölt tag

    Az nvidia panel(vezérlőpult) mely beállításával érhetem el a legnagyobb teljesítményt? A legnagyobb GPU kihasználtság, a GPU folyamatos 100%-on való pörgetését stb..

    Előre reprodukált képkocka szám?
    Függőleges szinkronizáció: V-sync on/off, adaptív, gyors
    Tripla pufferelés? stb..

    Melyik kombináció a legjobb a maximális teljesítményre input lagtól függetlenül (offline gépigényesebb/rosszul optimalizált játékokhoz)?

  • Jinxb1rd

    addikt

    Sziasztok!

    Pár napja, mióta felraktam az új Windows frissítést, játékok közben random fagyás áll be. Az eseménynaplóban a következőket látom:

    - - - - -

    A(z) nvlddmkm forrásból származó eseményazonosító 13 leírása nem található. Az eseményt kiváltó összetevő nincs telepítve a helyi számítógépre, vagy a telepítés sérült. Telepítheti vagy kijavíthatja az összetevőt a helyi számítógépen.

    Ha az esemény forrása egy másik számítógép, akkor a megjelenítési információkat is el kellett menteni az eseménnyel.

    A következő információk tartoznak az eseményhez:

    \Device\Video3
    Graphics Exception: ESR 0x404600=0x80000001

    Az üzeneterőforrás jelen van, de az üzenet nem található a karakterlánc- vagy üzenettáblázatban

    - - - - -

    ÉS általában 5-6 db jelenik meg.

    Van, amikor lefagy és nem kerül be semmi az eseménynaplóba.

    Bárkinek bármilyen tippje? :F

    [ Szerkesztve ]

    We are only Stardust...

  • regener

    veterán

    válasz Jinxb1rd #16147 üzenetére

    Common issues that can cause a TDR:

    Incorrect memory timings or voltages
    Insufficient/problematic PSU
    Corrupt driver install
    Overheating
    Unstable overclocks (GPU or CPU)
    Incorrect MB voltages (generally NB/SB)
    Faulty graphics card
    A badly written driver or piece of software, but this is an unlikely cause in most cases
    Driver conflicts
    Another possibility that people tend not to like to hear, is that you are simply asking too much of your graphics card. What I mean by this, is that if you have your settings too high and the graphics card struggles and falls to very low FPS, then something graphically complex occurs, the GPU may not be able to respond and a TDR error may occur
    Some users have experienced TDR errors whilst browsing the web with the 280.xx, 285.xx and 290.xx drivers. Please head to this link to clarify if this is relevant to you - this is quite a specific issue which seems to predominantly affect web browsing as opposed to gaming. There are no categoric fixes but some users have found that changing the power management mode to 'Prefer Maximum Performance' has helped.

    Itt kaphatsz választ ilyen kérdésre, ebben a topikban a "tech dolgokról" folyik a tárgyalás.
    Téma tudnivalókban ez le is van írva.

    [ Szerkesztve ]

  • kornel76

    aktív tag

    Izgalmas hír, vajon mennyire igaz 1070 Ti ?

    DIABLO 3 BattleTag: HelldogHun#2707 <Hurkak> / Mechwarrior Online : HelldogHun / SW Battlefront 2 - H3LLD0G-HUN

Új hozzászólás Aktív témák