- MinDig TV
- DIGI internet
- Kínában túl sok az EV, fokozódik az árháború
- Mobilinternet
- Az MSI RadiX AXE6600 tesztje – router, játékosoknak
- Hálózati / IP kamera
- 3 évig még biztosan nem rendelhetünk Xiaomi EV-t
- Kodi és kiegészítői magyar nyelvű online tartalmakhoz (Linux, Windows)
- HBO Max & OD topic
- Milyen program, ami...?
Új hozzászólás Aktív témák
-
Az ne zavarjon, hogy a 2200G és 2400G nem forrasztott, csak pasztás cpu-k
De szerintem egyáltalán nincs szégyenkezni valója a mostani amd cpu felhozatalnak... Nem lehet mindenben jobb egyik a másiknál, főleg ha teljesen más felépítésről beszélünk.. Nem jobb az egyik a másiknál, és a cpunak egyébként is 80fok az semmi... Te csak fájdalmasan tudod megfogni, így soknak tűnik a számodra, de a cpu túléli. Ha sok lenne neki akkor úgy is visszaveszi a teljesítményt...
[ Szerkesztve ]
The human head cannot turn 360 degrees... || Ryzen 7 5700X; RX580 8G; 64GB; 2TB + 240GB + 2TB || Samsung Galaxy Z Flip 5
-
Anaren91
senior tag
Figyelj átolvasva a hozzászólásaidat, igazság szerint tök mindegy ki mit mond neked úgyis azt hiszel amit.
Veled nem lehet vitázni, van ilyen.
De annyit láss be, hogy azt veszel amit akarsz, annak adod a pénzed akinek akarod. De az amd a ryzennel arra késztette, az intelt a több éves herevakargatás, és néha lökök egy kis teljesítményt szituból, hogy a hedt platform procijaikat kellett kiadnia asztali fronton (pofátlanul magas áron imo) aztán a következő i7 is már + két maggal érkezett.
Az Intel természetesen egyes programokban ahol egy-két szál teljesítménye számít nyilván jobbak. És a több éves vezető szerepével ( és egyéb dolgokkal...)szépen el is érte, hogy egy vagy két magra írják a programokat.
(Vagy hogy Amd vel szerelt laptopot alig látsz a piacon...)
De most az amd kikényszerítette, hogy az Intel is növelje az alsó kategóriában is a magok számát ( és a legtöbb felhasználónak nem 8700k 1080ti páros van otthon), ergo megéri már több magra írni mindent, sok extra teljesítmény nyerhető...
Aminek végül is mi látjuk a hasznát, mert jobb végterméket kapunk a végén.( Szebb látvány játékokban, gyorsabb render stb...)A prime 95 meg a videó vágás nem éppen egy tészta... Van aki videóvágással keresi a kenyerét, és neki nem mindegy egy egy projekt meddig tart, de olyat még nem hallottam, hogy valaki többet keresett mert alacsonyabb volt a hőmérséklete prime alatt.
Gyári hűtőt meg kb az használja,aki alap irodai, böngészős, filmnézős gépet épít. Nem nagyon terhelik le annyira a gépet mint egy prime 95. Még egy moba se szerintem.
MSI B450 Tomahawk Max, Ryzen 7 5800x3d, PowerColor 6700XT Hellhound,64 Gb 3600Mhz CL18
-
szmörlock007
aktív tag
Üdv
A legújabb pletykák szerint renduchintala azt mondta, hogy még12-18 hónap mire lesz 10 nm, illetve a jövő évi szerverprocesszor is 14nanón( ) fog kijönni. Hát ha ez igaz, elég borús képet fest intelnek jövőre.
-
félisten
válasz szmörlock007 #104 üzenetére
-
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
válasz szmörlock007 #106 üzenetére
ah nem, csak követni akarom a topikot popcornnal, így könnyebb visszatalálni
De egyébként azt írtam, hogy 18 hónap késésnél érdemesebb lenne nekik akkor 7 nm re bejönni. 2020 ra ígérték átadásra az új( elkezdett, de be nem fejezett) gyárukat amire Trump békenagykövet bácsi betolt nekik egy kisebb ország éves háztartásának megfelelő állami támogatást. Az állítólag eleve 7 nm és az az alatti gyártást célozza, az új gyártósorokkal.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
szmörlock007
aktív tag
Igen, az is igaz, hogy az értesülés szerint renduchintala azt is mondta, hogy a 7 nm viszont nem fog csúzni. Ha ez igaz akkor legkésőbb 2021-re már meglesz ha minden igaz. Viszont a 2019 nagyon kemény lesz inteléknek így.
"Trump békenagykövet bácsi betolt nekik egy kisebb ország éves háztartásának megfelelő állami támogatást"
We have to build a factory. A Big, Big factory, and intel pay for it all[ Szerkesztve ]
-
Lacccca87
őstag
Tényleg összehasonlítasz egy 100K+ procit egy 40k-s procival? Ez most komoly?
A videónak meg kb semmi köze az állításodhoz mivel csak intel procik vannak benne.
De igazából tök mind1 hogy videó összehasonlítást nézünk vagy teszt oldalt ugyanúgy nem jön ki a fényéves hasonlat. És ha már itt tartunk a linkelt videó is inkább engem igazol mert a 8700K meg 8400 között az esetek 90%-ban nincs jelentős különbség -
S_x96x_S
őstag
Intel Core i3-8121U (10 nm #CannonLake) és nincs benne (letiltották?) az AVX512 !!!
https://ark.intel.com/products/136863/Intel-Core-i3-8121U-Processor-4M-Cache-up-to-3_20-GHzMottó: "A verseny jó!"
-
válasz S_x96x_S #112 üzenetére
Eléggé "selejtesnek" tűnik ezen adatok és a hírek általi infók kombinálása alapján ... mondjuk nem is csinált intel belőle 9.generációt... maradt 8. ... mondjuk ahogy elnézem mint ha más cpu-knál se lenne feltüntetve az avx512 támogatás (így lehet az azért van benne). Viszont az IGP tényleg le van tiltva, az órajel relatív alacsony.. a fogyasztás "csak" 15W, de ezen érékek mellett, igp nélkül.. lehet az se előny...
így nézve még ez is jobb lehet nála (házon belül): [link][ Szerkesztve ]
The human head cannot turn 360 degrees... || Ryzen 7 5700X; RX580 8G; 64GB; 2TB + 240GB + 2TB || Samsung Galaxy Z Flip 5
-
Steve_Brown
aktív tag
válasz #25068288 #74 üzenetére
Az AIDA stressztesztje nem az igazi, habár 100%-ra terheli a cpu-t az mégsem melegszik úgy.
Pont a napokban stresszteszteltem az x4 950-t, AIDA alatt 60 fokig melegedett míg akár egy CS:GO meccs már felrántotta 80 fokra.
Ezt valamilyen energiagazdálkodási (és hűtési) probléma lehet mert kikapcsolt turboval még prime alatt se megy 61-62 fok fölé. -
pengwin
addikt
Ez a negyedik kb. olyan év, mint apámé, hogy nem akar Ryzent venni, mert neki a kilencvenes években elfüstölt egy AMD CPU-ja... tuning közben.
Ez még az Intelt másoló időszakban történt, gyanítom az Intel CPU is meghalt volna, mert apám tuningja volt a hiba forrása, nem a CPU.Én úgy vagyok vele, hogy ameddig van más lehetőségem, addig nem veszek Intel CPU-t, mert felhasználóként nekem nagyon rossz lenne az Intel monopóliuma. Csak még kell nézni hány évig ment a stagnálás erős konkurencia hiányában.
Ha elfogadható alternatíva a kisebbik gyártó terméke, akkor azt kell venni, különben a saját érdekeidnek ártasz.[ Szerkesztve ]
Üdv, pengwin
-
Dandris
tag
Az első cannon lake-re épülő termék.
-
pengwin
addikt
válasz Busterftw #117 üzenetére
Én hiába magyarázok neked bármit is ha még nem értetted meg, hogy az összes cég az ellenséged és ha megteheti, akkor keresztbe tesz neked.
Ha van lehetőséged dönteni, akkor úgy kell vásárolni, hogy a vásárlásod neked kedvező irányba alakítsa a piacot. Nyilván ehhez kellenek reális alternatívák minden gyártótól, amiket érdemes megfontolni, mert senki sem fog olyan terméket venni, ami az igényeinek csak az 50%-át egészíti ki.
Én pl. Ryzent vettem, mert 1440p-s felbontásnál nem érzem a hátrányát, ellenben a sok mag és szál jól jön munkához.
(#120) Dandris
Csatlakozok az előttem szólóhoz.
A négy magos i7 nem való virtuális gépek alá? Nagyszerű!
Tulajdonképpen igazad van, mert lehet venni HEDT Xeont vagy i7-et, kétszer akkora platformköltséggel, és akkor máris tudsz VM-ezni.Vagy lehet venni valamilyen Ryzent is, amiben már az i7-nél 30-50%-kal olcsóbban kaptál 6 magot. Ráadásul a Ryzen CPU-k támogatják az ECC RAM-ot, ami az Intelnél csak pár kiválasztott Xeon és Pentium kiváltsága volt. Mert megtehették, hogy ezzel a 0$-os költségű fícsörrel szegmentálják a piacot.
[ Szerkesztve ]
Üdv, pengwin
-
Dandris
tag
és szmörlock: arról az intel miért tehet hogy kelet-európában ilyen a céges gazdasági helyzet, gondolok arra hogy minél olcsóbban?
Ha a hatmagos ryzen-en kiosztasz 3x2 magot na mi lesz az oprendszrrel?
Elég szomorú találsz olyat aki virtuális gépre komoly munkára fizet neked akár egy intel i7-ért vagy egy ryzen-ért. Tök jó mindenki virtuális gépes cuccot épít mióta kint a ryzen.
[ Szerkesztve ]
-
szmörlock007
aktív tag
"Tök jó mindenki virtuális gépes cuccot épít mióta kint a ryzen. "
Erről sajnos nem volt szó sehol, már megint ide nem kapcsolódó dolgot hoztál fel
A kolléga csupán annyit mondott, neki miért nem elég a 4 magos core i7. Az, hogy ezt te(már nem először) túlreagáltad már nem az ő hibája. Ha 2 virtuális gépet futtatsz 2-2 kiosztott maggal akk bizony ahhoz már 6-8 magos proci kell amit mindkét gyártó kínál mostmár viszonylag jó áron. Problem?
[ Szerkesztve ]
-
Dandris
tag
válasz szmörlock007 #127 üzenetére
Oké, bocsi ha túl reagáltam. Az alap felállás mégis az, hogy az i7 desktop proci.
-
cpt_sanya
tag
Érdekes, annó 2013-ban tanultam , hálózatokat, ahol Vm-ekkel dolgoztunk. Oracel vm -el.
Az akkori laposom:
MSI EX630X-018HU notebook
Processzor típus: AMD Athlon X2
Processzor jellemzők: QL-62 (1MB L2cache) 2,0GHz
Memória: 4GB (2x2GB) DDR-II (667MHz), Max:4 GBEzen konkrétan ment egy windows server 2008 + 2 kliens (windows 7 kliens + linux) normálisan . Most kicsit érdekes ,hogy ehhez egy top proci kellene.
[ Szerkesztve ]
-
tibaimp
nagyúr
Ennyi. Ezért is írtam, azt amit írtam. Igazából sosem volt AMD-m (még a seregben sem ), tehát nem volt ilyen rossz tapasztalat vagy ilyesmi, mondhatni megszokás, illetve mivel döntően játékra használom a gépet, és elég sok tesztet olvasok, külföldi oldalakon is, így maradt a i7-8700 most is. Röviden ennyi.
Persze, mint mondtam, saját preferencia, hogy ki milyen cpu-t vesz.A tehén egy bonyolult állat, de ÉN megfejtem...| 2016-tól az tuti, hogy az angyalok is esznek babot...
-
távcsőves
senior tag
válasz Busterftw #126 üzenetére
Nem hinném. De azt mindenki azonnal érzi, ha a kedvenc házipornóját effektezi vágja(tematikus oldalra való feltöltés elött ), bazz, ez sokkal gyorsabb, mint a "régi" 2mag 4szálas procin..
Ez a teljesítmény most közelebb került az átlag emberhez, ennyi történt. A top ryzen sem olcsó, aki felső kategóriából választ, meg tudja mit miért vesz. Egyik sem 2Ft. Amúgy nem értem, használt piac miért nem követi le az új cpu generációt. (Intel/AMD is porba kellett volna taszítsa Sandy/Ivy árakat legalább.)
[ Szerkesztve ]
-
#25068288
törölt tag
Nézd, csak neked!
"..We’re happy to say we won 4 out of 5 categories in TechSpot’s Best CPUs of 2018 including Best All-Round Value CPU for the Ryzen 5 2600X and Best Budget CPU for the Ryzen 3 2200G!.."
-
válasz távcsőves #132 üzenetére
a használt piac nagyjából "önbeárazó" ... ha a jelenlegi áron is elmegy, akkor nincs mit tenni.. annyi és pont.. viszont a korábbi FX cpuk árai eléggé beestek most az új ryzen refressel érkezően... azaz, valami szerintem elkezdődött.
The human head cannot turn 360 degrees... || Ryzen 7 5700X; RX580 8G; 64GB; 2TB + 240GB + 2TB || Samsung Galaxy Z Flip 5
-
Busterftw
veterán
válasz távcsőves #132 üzenetére
En ezt ertem, tolem aztan johetnek a 200 magos procik, engem az zavar, hogy ugy vannak hirtelen beallitva a Haswell/Broadwell/Skylake/Kabylake procik, mintha azok kinai dzsunkak lennenek es ezeket a rossz minosegu, rosszul teljesito termeket "kellett" evekig az embereknek megvenni.
Azert nem kovetik a regebbi modellek az arakat, mert meg most is rengetegen vannak akiknek semmi szukseguk valtani i7 3xxxK-4xxxK procikrol. Pont azert, mert meg most is "elegek".
[ Szerkesztve ]
-
rodrigez
senior tag
Szerintem elég egyértelműen TSMC-t írtam, GloFo-ról szó sem volt.
https://www.anandtech.com/show/12677/tsmc-kicks-off-volume-production-of-7nm-chips
-
addikt
válasz Busterftw #135 üzenetére
Hogy árnyaljam a képet: Inkább azért drágák, mert sokan ragadtak 1155-ön, mint ahogy én is, hála a p.drága ramoknak. No meg persze nem kell még temetni ezeket a procikat. De aki itt ragadt, az kénytelen megvenni az i7 3770-et, ha i5 van otthon és ezt tudják jól azok is akik el akarják adni.
5600X 2x16GB 6800XT | i5-3570 2x4GB 1050TI | MS Surface Book | iPad Pro 12.9 | iPhone X | iMac e2008
-
Anaren91
senior tag
válasz Busterftw #117 üzenetére
Itt nem az a kérdés, hogy mire nem volt elég... Hanem, hogy már hol járnánk, hogy ha az amd nem bassza el az fx et ( ami annyira nem is volt rossz, csak ugye nem fejlesztettek több magra).
Minden proci annyira volt elég amennyire az Intel akarta...
Szerinted korábban nem tudott volna az Intel is kijonni 6-8 maggal consumer fronton? De. De minek ha a 2-4 magot még évekig el tudja adni aztán ha elfogy a mghzvadaszat akkor eloall a 6 maggal és feltalalta a spanyol viaszt...
Vga piacon ugyan ez az nv...MSI B450 Tomahawk Max, Ryzen 7 5800x3d, PowerColor 6700XT Hellhound,64 Gb 3600Mhz CL18
-
félisten
válasz Anaren91 #139 üzenetére
miről beszélsz Nv vel VGA piacon?
ugyan ez:? valóban generációról generációra lehozni az előző gen csúcs teljesítményét a középkategóriában az ugyan ez.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Busterftw
veterán
válasz Anaren91 #139 üzenetére
Szerintem is ki tudtak volna adni mar 6-8 magos procit.
Te azt mondod, hogy minek, ha a 2-4 magot meg evekig el tudja adni, en meg azt mondom, hogy minek, mert 4(jo) mag eddig boven eleg volt. Mainstreamrol beszelek.
Itt van az en procim, 1440p-ben ultran jatszom, 4 mag 4 szal, 60fokon itt receg, meg se rottyan, barmit dobtam ele.
2018-ban.Szoval minek nekem (meg) 8 mag 16 szal, amikor abbol fele szotyizik.
Tudom, ha lettek volna mar 5 eve 6-8 magos procik (voltak, bulldozer/piledriver) akkor a fejlesztok ugy irtak volna motorokat. Azok, ugyanugy szotyiztak volna, foleg hogy a grafika meg a felbontas nem volt nagyobb mint most.Tehat jo dolog a fejlodes, de ez a "hol jarnank" furcsa madar, ugyanis elnezve a mainstream hasznalatot, semmi
ertelme nem lenne. Csak azert mert valamire az Intel fizikailag kepes, meg teljesen felesleges.Mert van 28 magos 56 szalas xeon is am, a "hol jarnank" logikaval elve verni kene az asztalt, hogy a tavalyi i5 miert nem ennyi? Miert vagyunk vissza tartva?
-
Anaren91
senior tag
válasz Busterftw #141 üzenetére
Pont azt nem érted amit sugallni akartam.
Persze, hogy elég volt négy mag, mert az intelnek az volt a csúcs az i 7 ekeben. A piaci fölénnyel meg el is érték, hogy ne is írjanak többre. Pedig már rég óta több szálon mehetne minden.
Consumer piacot meg ne keverjük össze a profi célra vagy szerverekben használt megoldásokkal. Azokban a programokban a több szál használata miatt a ryzen pl veri is általában az inteleket... És még az fx ek is elég jól szerepelnek.Az nv elzárkózik a hardvereik dokumentálásától, nem lehet olyan szinten beletúrni a hardvereikbe mint ami az igazi low level hozzáféréshez kellene, ergo nem tudnak elterjedni rendesen a low level apik, vagy nem lehet őket annyira kihasználni mint amennyire lehetne. Ő is ül a baberjain, és leszarja, hogy újabb technológiákkal kevesebb eroforrasbol pl szebb látványt lehetne kihozni, ő birtokolja a vga piacot, az van amit mond... Ugyan úgy mint az Intel többet Megaherzel mint ésszel.
[ Szerkesztve ]
MSI B450 Tomahawk Max, Ryzen 7 5800x3d, PowerColor 6700XT Hellhound,64 Gb 3600Mhz CL18
-
Busterftw
veterán
válasz Anaren91 #142 üzenetére
Szóval azért volt elég a 4 mag, mert az Intelnek az volt a csúcs. Oké.
A 3 éves Just Cause 3, Project Cars, Destiny, Mad Max stb olyan élvezhetetlenül futott, a 4 mag 100%-on pörgött alattuk, oda már 6-8 mag kellett volna.Jobb lett volna, ha inkább 8 mag szotyizik, mert csak. Az úgy jobb.
Csak nem értem miért.Most az elkövetkező években a +2 mag a logikus lépés. Ezért tartom jónak az Intel lépését. Reális és logikus.
-
Anaren91
senior tag
Szimpla üzleti logika... Ha ellövöd az összes nagy ötleted és olyat teszel le az asztalra hogy mindenkinek kiugrik a szeme, akkor a következő generációval már többet kell tervezni, olyat kitalálni ami még az előzőnél is durvább.
De ha kis adagokban adagolod, akkor ugyan azt ujkent n+1 szer el tudod adni és többet teszel zsebre a végén.
És a jó marketing, és egyéb dolgok miatt az emberek el is hiszik, hogy ez jelenleg a max amit le tudnak rakni az asztalra, és ez mennyire jó nekünk.
Természetesen ez saját vélemény, lehet vele vitatkozni.[ Szerkesztve ]
MSI B450 Tomahawk Max, Ryzen 7 5800x3d, PowerColor 6700XT Hellhound,64 Gb 3600Mhz CL18
-
félisten
válasz Anaren91 #145 üzenetére
nincs mitrő vitatkozni mert saját rögeszméket és elképzeléseket írsz ami mögött csak egy elképzelt bemószerolás van, hogy legyen kit hibáztatni.
Amit leírsz igaz lehet úgy ahogy Intelre,de nem igaz Nvidiára. amiről te beszélsz az az Intel és nem a Zöld cég és el lehetne felejteni ezt a gondolkozást , hogy egy kalap alá veszed őket, AMD-s szemmel.
Egyébként kicsit mélyebbről kellene frissítened a dolgokat, hogy megértsd ezt, kezd azzal, hogy melyik cégnek nem felelt meg a legkevésbé a dx 12 első implementációja, melyik cég volt az, akik még a mai napig nem tudnák abszolválni a TIER 1 lvl szintet sem a gyenge IGP- kel, ha a dx 12 úgy jön be ahogy az el lett képzelve.
Elárulom hogy nem vörös és nem Zöld a színe, hanem kék, és innentől kezdve el kezdhetsz gondolkodni azon, hogy kiknek az érdekeit szolgálja valóban a dx 12 ebben a mai formában. Hozott is meg nem is, adott is meg nem is....legnagyobb szarkeverő ebben az egészben Intel, ezt jobb ha tudod és az egész ipar arra fog fejlődni amerre ők akarják és ez most már igaz lesz a DGPU IGP piacra is nem sokára. Nagyon remélem, hogy NV továbbra is ott tesz keresztbe Intelnek, ahol tud.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Abu85
HÁZIGAZDA
Ha a DX12 az első tervezett specifikációval jelenik meg, akkor az AMD-n kívül senki sem tudná támogatni a pure bindless bekötést. Egyszerűen egyetlen más hardvert sem terveztek memóriaalapú erőforrás-kezelésre. Mindegyik slotalapú. Szóval az kifejezetten kedvező, hogy a követelmények a megjelenésre teljesíthetőbb formát öntöttek. Az Intel egyébként azzal trükközik, hogy az utolsó szintű gyorsítótárat használja fel a kétmilliós limit teljesítésére, míg a processzormagokat a bekötés elvégzésére. Nem von el ez nagy erőforrást, mert a procimagok szépen bekötik az EU-kba az erőforrást, így emulációt végző binding API-t sem alkalmaznak erre. Az NV pedig írt egy emulációt végző binding API-t, amit maga a DirectX 12 nem tilt, ennek az eldurvuló regiszterhasználat lesz az ára, de a gyártó el tudja dönteni, hogy megéri-e vagy sem.
Egyedül a resource heap követelményeket nem dolgozták át. Oda valóban valamilyen emuláció nélküli pure bindless kell, vagy az Intelnek az a gyorsítótáras, procimagos trükközése. És látod, hogy ez mit eredményezett. Az NV nem tudja támogatni a legmagasabb szintet még a Voltával sem. Szóval a Microsoft nem ilyen ezzel-azzal kicseszek szándékkal változtatja a speckókat, éppen ellenkezőleg.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A bekötés magának az API-nak a része. Maga a bindless a DX12-nek az alapvető modellje. Amikor a Microsoft megszabta a bindless specifikációkat, akkor két modellt különítettek el. Egyet kapott az NVIDIA, leginkább azért, mert külön kérték ezt, és természetesen bekerült az alapvetően tervezett pure bindless koncepció, amit tulajdonképpen az Xbox One-ra szabtak, de ezáltal nyilván a GCN is jó, és az Intel is támogatta a Gen9-cel, mert ezt is finomították a véglegesítésre. Ezek alatt van egy kompatibilitási szint, ami gyakorlatilag egy CPU-n futó binding API. Ilyenkor a meghajtó elhelyez egy erőforrás-leírót egy tömbbe. Amikor a wave-ek elkezdenek futni a multiprocesszoron, ezt a tömböt fogja a multiprocesszor igényelni. Ennyi lényegében a bekötés. De a probléma az vele, hogy a processzor segítségére van szükség ahhoz, hogy a GPU tudja honnan kell mit betölteni a memóriából. Ezért jött be a bindless, ugyanis a Tier2-es szint, vagyis amit az NV-re csináltak, annyiban különbözik, hogy az SRV-ket és a samplereket be tudja tölteni a mintavételezőbe a branch egység. De a többi puffer view-re már a CPU kell. A Tier3-es pure bindless szint alapvetően annyi, hogy nem kell használni a DX12 binding API-ját, mert a GPU-ban van egy programozható integer skalár egység (vagy az Intel esetében maga a CPU-mag és az LLC), ami a CPU munkáját teljesen ki tudja váltani. Minden memóriahozzáférés, akár a szűrt adattal visszatérők is beleprogramozhatók a shaderekbe, mert lényegében erről szólnak a bindless szintek, hogy a CPU-t ne terheljék a fejlesztők ezzel a feladattal. Na most a programozhtóság megkövetelése miatt ezt nem tudod csak úgy fixfunkciós blokkal megoldani, ide kell egy olyan részegység, ami megcsinálja a proci feladatát, vagy trükközöl, ahogy az Intel.
Ez így mind szép és jó volt, de időközben felmerült az a probléma, hogy egy architektúrát áttenni memóriaalapúvá, igen nagy változást igényel, akár 4-5 éves tervezést is, ha előtte nem volt erre semmilyen akarat. Ezzel viszont a Tier2-es szint, vagyis a sima bindless bekötés korlátozza a hardvereket, mivel például hiába tud a Pascalnál több CBV-t, UAV-t kezelni, vagy esetleg hiába támogat minden pufferhalmaz esetében unpopulated RS bejegyzést, a DirectX 12 nem fogja megengedni neki az extra tudás kihasználását. Emiatt a Tier2-es bindless szint rendkívül korlátozóvá és haszontalanná vált.
Az NV a múlt évben átváltott a pure bindless szintre, amit a végleges specifikációkkal szerencsére nem nehéz emulálni, mert volt esze a Microsoftnak a véglegesítés előtt az emuláció lehetőségét is mérlegelni. Az NV-nek a megoldás persze valahol káros is, mert a SM-enként 4 KB-nyi vektorregisztert is bukhatnak, ami a regiszterszegény Maxwell és Pascal architektúrákban jóval több, mint az egészséges határ, de valószínűleg 10-15%-nál nagyobb büntit nem szereznek vele, és innentől kezdve a bindless motorok nem jelentenek problémát, tehát egyedül az erőforráshalmazok problémájával kell foglalkozni, mivel a GeForce-ok csak olyan halmazokat hozhatnak létre, ahol a flagek csak egy kategóriába sorolt típust engednek használni.
Szóval a bekötés magának az API-nak a szerves része, és nem véletlen, hogy még trükközés vagy emuláció árán is a pure bindless megoldásra megy mindenki.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz szmörlock007 #150 üzenetére
Elvileg egy lapkában lesz aktív. Ezzel az a baj, hogy az újítások zömét már csak emiatt is letiltják, mert nem akarnak egy lapka miatt külön platformlayert rakni a driverbe, szóval kb. behúzzák az egészet a Gen9 layere alá és kész. Így aztán hiába van a hardverben változás, a szoftver felé már el van fedve.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
-
Abu85
HÁZIGAZDA
CPU-n fut a binding API.
Oda tölti be az adatot. Ez egy igen speciális módszer, amit az NV kitalált a Keplernél. Alapvetően működik, mert a SRV-ket és a samplereket a binding API nélkül is be tudja tölteni a mintavételezőbe. Azt senki sem állította, hogy elegáns módszer, de megcsinálja, amire kitalálták. Nagyon sokat egyébként nem lehet tenni egy slotalapú architektúránál, annyira mélyen kellene belenyúlni a dizájnba, hogy leginkább trükközéssel lehet menni a pure bindless felé. Az AMD-nek csak azért egyszerű a dolga, mert ők amikor a nullához közeli állapotról tervezték a GCN-t, akkor eldöntötték, hogy memóriaalapú lesz, így pedig nagyon kedvező a pure bindless dizájn megvalósítása. Kell egy skalár ALU a CU-ba, ami megoldja a feladatot. Ha már kész az architektúrád, akkor rengeteg korábban meghozott döntést szükségszerűen hordozni kell a következő dizájnra is, amíg nem váltod le az egészet.
Az NV váltott implementációt. A problémájuk az, hogy hiába hozott a Microsoft nekik egy külön bekötési szintet a DX12-ben, akkor is hátrányban vannak az Intelhez és az AMD-hez képest a feature szempontjából. De a Microsoft nem törődik igazából az API alatt meghúzódó részletekkel, tehát érdektelen számukra, hogy egy TIER szint támogatását a gyártó hogyan éri el. Ezért az NV is átállt egy pure bindless megvalósításra. Ehhez alkalmaznak egy extra réteget az API alatt, ami gyakorlatilag elrejti a hardver képességeit, és megfelelő támogatást ad az API felé, miközben a különbségeket kezeli a hardver felé. Gyakorlatilag emuláció. Ezt nem kizárt, hogy az NV kérte, mert a Microsoft még az utolsó pillanatban is változtatott annyit a binding modellen, hogy egyszerűbbek legyenek a szoftveres trükkök.
A regiszterhasználat az NV szerint attól függ, hogy a program mit csinál. A legrosszabb eshetőség, ha divergens módon dinamikusan indexeli az erőforrás-leírót. Ebben az esetben maximum 16 darab 32 bites regiszter a terhelés aktív warponként. Ez a worst case. De maga shader fordító fel van már készítve rá. Ha ilyen terhelést fejthet ki egy shader, akkor limitálja az aktív warpok számát. A Volta esetében az összevont L1 gyorsítótárban is lesznek trükkök erre a működésre.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
namaste
tag
Jó, de mit csinál pontosan a binding API?
Forrás erre? Hogyan működik pontosan? Mert egy textúrázótól elvárható, hogy önállóan kezelje a textúrákat. De akkor most kell a binding API vagy nem?
Az NV-nél bekötés is ugyanannyi mint az GCN-en, csak nem akárhol lehet a memóriában a leíró, hanem egy 1 milliós elemszámú táblázatba (SRV-k) vagy egy 64 elemszámú táblázatba (UAV-ok) kell a leírókat betölteni.A ma vagy a jövő játékaiban mennyire használják a divergens erőforrás leírót és milyen effektekhez?
Mit tárol a regiszterekben? Ehhez is kérek forrást. -
Abu85
HÁZIGAZDA
A DX12-ben binding API biztosítja az erőforrások bekötését, ha erre a hardver nem képes önmaga. Gyakorlatilag a meghajtóba írható erre egy implementáció, ami elhelyezi az erőforrás-leírókat egy tömbbe. Amikor a warp vagy wavefront, illetve általános nevén a wave futni kezd, akkor ezt a tömböt fogja igényelni elsőként, amit már a CPU-n futó binding API előkészített olyan formába, hogy a GPU megfelelően működhessen. Az adatok elérése innentől kezdve pufferbetöltés vagy textúra mintavételezéssel valósítható meg. Attól függ, hogy szűrt vagy nem szűrt minta kell.
Attól, hogy egy textúrázótól elvárható ez, még meg kell neki mondani, hogy hol vannak. Gyakorlatilag az erőforrás-leírók kvázi pointerek. Ehhez kell a binding API. Hacsak a hardver nem képes arra, hogy az esetlegesen shaderekbe programozott memóriaeléréseket értelmezze. Erre van a Tier2 és a Tier3 szint. Előbbi esetben az SRV-ket és a samplereket be lehet tölteni a binding API nélkül, mert le lehet programozni a memóriaelérést a shaderben. Utóbbi esetben pedig ez minden erőforrásra leprogramozható.
Az NV erre nem tért ki. Ők csak felvázolták, hogy ez a worst case. Ha egy shader így működik, akkor az nagyon fel tudja zabálni a regisztert. De állítólag ez még így is előnyös, mert a legtöbb esetben az újabb meghajtókba épített emulációnak pozitív hozadéka van. Csak néhány eset az, ahol hátrányos. Valószínűleg arra számítanak, hogy a fejlesztők nem hülyék, és mérlegelik ezeknek az eseteknek a használatát. Nem mondták meg, hogy mit tárolnak. Forrást nem tudok adni, ez egy telefonkonferencia volt, nem tudom, hogy felvették-e.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
- Beszámítás! Intel Core i7 6700K 4 mag 8 szál processzor garanciával hibátlan működéssel
- ! Intel 13700KF + ASUS TUF Gaming Z790 Plus D4 + Kingston FURY DDR4 3600MHz CL18 !
- Intel Core i7-11700K processzor (használt)
- i5-9600K , és i5-9400F processzor eladó!
- Új bontatlan, dobozos, számlás, garanciális i9 13900K CPU akció!