- Router gondok
- Bittorrent topik
- Kihagyták az NVIDIA-t egy új AI-hálózati szabványból
- Telekom otthoni szolgáltatások (TV, internet, telefon)
- Batch programozás
- QNAP hálózati adattárolók (NAS)
- Milyen routert?
- Hamarosan elképesztő mennyiségű áramot fogyasztanak el az adatközpontok és az AI
- Spotify
- Microsoft Excel topic
Új hozzászólás Aktív témák
-
GodGamer5
addikt
"Here is how you can completely fix the annoying DX12 stutters, even with Ray Tracing, in Control"
[link]"Többször látsz Game Over képernyőt, mint Michelle Wild f@szt." "It's not a Loop, it's a Spiral"
-
félisten
[Back Stage” Ray Tracing Tech Demo]
Nagyon jól néz ki , végre egy ízléses demó ami megmutatja milyen természetes dolog tud lenni az RT."A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
bertapet11
tag
-
Z_A_P
addikt
-
Abu85
HÁZIGAZDA
Picit igen. A legtöbb játék eddig úgy csinálta az aszinkron compute-ot, hogy egy-két compute futószalag futott egy grafikai mellett. A Gears 5-nél akár 12 futószalag is futhat párhuzamosan. Ezzel a stateless compute architektúráknak nincs baja, de az NVIDIA még mindig hardverállapothoz köti a compute shadereket, nem tudja akármilyen állapotban lefuttatni ezeket a kódokat. Ilyenkor a hardver ugrálni fog az állapotok között. Ez kevés compute futószalagnál is előfordul, de ott nincs annyi állapotváltás, hogy az aszinkron compute hatása negatív legyen. Az AMD-nél ez a terhelés azért nem számít, mert a GCN és az RDNA is stateless compute, vagyis a feldolgozás alatt sosem vált hardverállapotot, így nem tud lelassulni. Önmagában ez egyébként olyan nagyon sok problémát nem okoz, mert a GeForce-ok lassulása ettől egészen minimális, a GCN viszont sokat tud gyorsulni az ilyen dizájntól. Az RDNA-nak sincs túl nagy hasznára ez a fajta megoldás, mert az idle buborékokat fel tudja a hardver tölteni, viszont van priority tunneling, és ettől ez a hardver is gyorsul, de csak nagyon picit.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Ragnar_
addikt
válasz bertapet11 #40055 üzenetére
Fantasztikus. Állítólag 20 magig skálázódik a Gears5 motorja, erre egy 4/8-as proci kb. 1-2% belül ugyanannyit megy mint a 8/16-os. (Min FPS-ben gyengébb a 4/4-es i3, mint a mezőny többi tagja.)
[ Szerkesztve ]
Ryzen R5 1600X - ASUS PIRME-B350 PLUS - 2x8Gb G.Skill Aegis 3GHz - Gigabyte 1070 G1 Gaming
-
Petykemano
veterán
válasz Ragnar_ #40059 üzenetére
Nem ismerem ezt a játékot, de a multis játkékoknál szokták mondani, hogy teljesen más a cpu terhelése mondjuk egy 100 játékost tartalmazó pályán, mint single player benchmarkban.
Ha ez is egy ilyen masszívan multiplayer játék, akkor jöhet még jól az a skálázódás annak ellenére, hogy mondjuk grafikára 8 szálnál nem használ többet. (A DX12 skálázódása egyébként 6 szálnál megáll)Ha ez nem ilyen játék, akkor tényleg elkiabálták azt a skálázódást
Találgatunk, aztán majd úgyis kiderül..
-
Abu85
HÁZIGAZDA
válasz Petykemano #40061 üzenetére
Attól függ, hogy a benchmarkot tesztelték-e. Az szándékosan lett a GPU-ra kiélezve. A 3 player co-op részét pedig nem igazán lehet tesztelni egy benchmarkkal, de persze annak a terhelése elsődlegesen a procira esik rá, mert a GPU ugyanazt számolja, mint single módban.
A parancsgenerálás nem áll meg 6 szálnál. Mivel explicit, ezért ez lényegében addig skálázódik, ameddig csak lehet, viszont az Unreal Engine 4-nél 20 szál a limit. De ez csak mesterségesen van meghúzva, mert azért nem csak az API lehetőségei számítanak itt. Viszont például az Ashes a legújabb patch-csel már 80 szálig skáláz.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
félisten
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Egon
nagyúr
Emberek, engem meggyőzött az 5700 XT. A céges feladatok tekintetében ilyet kellene vennünk, legalább kettőt. A célfeladatra mindössze cca. 25%-kal lassabb, mint a 2080Ti, így ár/teljesítményben nyilván jobb.
Mondjuk a feladatnak köze sincs a grafikához, de ez egy másik kérdés.
"Bonyolult kérdésre egyszerű választ keresni helyénvaló, de ritkán célravezető megoldás" (Wayne Chapman)
-
imi123
őstag
Tévedni emberi dolog, de állati kellemetlen.
-
Shing
őstag
válasz imi123 #40068 üzenetére
Kiábrándítóan unalmas. Aki 1080Ti-t vett anno, az nagyon jól járt.
RX5700-nak meglepően jól néz ki a fogyasztási mutatója, aztán leesett hogy 7nm. De akkor is, legalább az nincs kimaxolva, így beleférhet még erősebb kártya.RX5600 pedig jöhetne már, amíg legalább 7nm előnye van az AMD-nek. Ha az nvidia átáll jobb gyártástechnológiára és újabb architektúrára, akkor végleg cseszhetik az olcsóbb kategóriákat is... és valszeg megint ők jönnek előbb egy szériával.
Lassú, vontatott, unalmas lett az egész piac... Vársz 5 évet, hogy na most majd befrissítek aszt' alig van erősebb kártya.
-
félisten
LoL?
[LG’s 2019 OLED TVs are getting Nvidia G-Sync support]
nesze neked Big Screen"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Egon
nagyúr
válasz FLATRONW #40069 üzenetére
Nemtom, ki kellene próbálni, de nekem nincs olyanom (ha valakit érdekel, és van olyan kártyája, szívesen megadom hozzá az inputot privátban).
Annyit tudok, hogy a 2080 Ti-nek szűk 2 óra a becsült futási ideje, a 1070-emnek kb. 6.5 óra volt (a feladat jellegéből adódólag, lehet hogy a tényleges számítással fele ennyi idő alatt végez; elvileg a becsült futási idő a releváns, mert az a maximum ami alatt ténylegesen végezni fog)."Bonyolult kérdésre egyszerű választ keresni helyénvaló, de ritkán célravezető megoldás" (Wayne Chapman)
-
Locutus
veterán
Vajon miért csak RTX meg GTX16 ? Mi van 1070, 1080 stb-vel? Gsyncet azok is tudnak...
Meg mondjuk az összes VGA csak HDMI 2.0-t tud, ami 4K-ban 60Hz. Ezen mit fognak VRR-ezni? Vagy varázsütésre HDMI 2.1-et is engedélyeznek rajtuk?Komplett hangrendszerem eladó - https://hardverapro.hu/apro/mackie_studio_monitorok_mr5mk3_mr10s_mk3_sub_asus/hsz_1-50.html
-
félisten
válasz Locutus #40073 üzenetére
nem tudom,de tippre ez az LG-n is múlik, mert HDMI-n át még eddig nem volt Gsync compatible kijelző, sem firmware, és a TV ket kell frissíteni hozzá,(megkapja a 2019 es OLED felhozatal náluk) nem a kártyákat. Szóval lehetséges, hogy menni fog pascallal is is,de ez a HDMI-n át menő VRR tök újdonság minden szempontból a zöldeknél, dedikált hardver nélkül a kijelző oldalán.Ez szerintem azt jelenti, hogy hamarosan a monitoroknál is megjelenik ez a funkció, HDMI adaptive sync .
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
-
imi123
őstag
Tévedni emberi dolog, de állati kellemetlen.
-
Abu85
HÁZIGAZDA
válasz Locutus #40073 üzenetére
Egyszerű. A HDMI 2.1-es bemenet mellett már rá lehet tervezni a kijelzőket a VRR-re, és ezt igazából ki lehet használni HDMI 1.4-es vagy HDMI 2.0-s VGA-val is. Az egész egy szoftver. Hasonló az AMD-nek a HDMI-s FreeSync-jéhez, csak ott az a különbség, hogy nem kötelező a HDMI 2.1-es bemenetű, VRR-t támogató kijelző, mert az AMD kiegészítette magának a HDMI-t, míg az NV egyszerűen felhasználja a HDMI 2.1 specifikációját. Utóbbi miatt szükséges a HDMI 2.1-es bemenetű, VRR-t támogató megjelenítő, de a VGA oldalán ennek nincs igazán hardveres követelménye, 5-6 generációra is vissza lehet portolni. Ugyanakkor a régi hardverekre már nem éri meg. Nem hoznak már pénzt, miközben a szoftverimplementáció portolása viszonylag drága lenne.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
félisten
"If you don’t own a LG TV, but do own a display or TV that only supports Variable Refresh Rates via HDMI, you can try enabling HDMI VRR when the aforementioned driver is released. As these displays and TVs haven’t yet been through our comprehensive validation process, we can’t guarantee VRR will work, or work without issue."
na, érdemes próbálkozni
[link][ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
nagyúr
az lg g-sync támogatása a legalsó változat. azaz működik nekik hdmi-n keresztül a vrr. yaaaay!
[ Szerkesztve ]
Tudod, mit jelent az, hogy nemezis? Az érintett, erősebb fél kinyilatkoztatása a méltó büntetés mértékét illetően. Az érintett fél jelen esetben egy szadista állat... én.
-
Abu85
HÁZIGAZDA
Igazából, ha HDMI 2.1 van a kijelzőn, akkor működnie kell, mert a HDMI 2.1 VRR az szabványos, és a szoftver, amit az NV csinált az ezt célozza. Persze nem mondhatják rá, hogy tutibiztos, de mivel nem HDMI-s FreeSync-féle zárt rendszerről van szó, így egyik gyártó sem csinál eltérő dolgokat, amelyeket külön le kellene kezelni.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
huskydog17
addikt
Borderlands 3-nak a DX12 leképzője jelenleg katasztrofális, a fejlesztők is a DX11 használatát javasolják.
Úgy tűnik az AMD partnersége sem hozott semmit a DX12-nek, ez a játék az idei év egyik legjoban várt címe, itt lehetett volna nyomni a DX12 szekerét, ehhez képest ez a játék is csak negatív tapasztalatot ad a felhasználóknak.
Egy újabb nagy AAA cím, ahol a 10 éves DX11 sokkal jobban működik, mint a DX12.[ Szerkesztve ]
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
Raggie
őstag
válasz huskydog17 #40085 üzenetére
A cikk nem azt írja, hogy a DX12-es verzió még kb befejezetlen? Tehát akár egy-két peccs múltán már jó is lehet. Ez nem valószínű, hogy az AMD döntése volt, hanem inkább a játék készítőié.
Én úgy tudom elképzelni, hogy előbb a DX11-es verziót fejezték be, mert az kompatibilis a legtöbb ember hardverével majd utána elkészítik a DX12-t is csak azzal nem lettek kész a kiadási dátumra.persze az már más kérdés, hogy elkészül-e tényleg és hogy jó lesz-e, csak még megvan a lehetősége talán.
[ Szerkesztve ]
Clint Eastwood FTW
-
do3om
addikt
válasz huskydog17 #40085 üzenetére
Pedig a fejlesztők hogy kérték a DX12 őt, legalábbis ezen az oldalon.
Az DX 12 egy katasztrófa talán a legrosszabb címre lesz esélyes. Semmit nem hoz, amit észrevennénk, a fejlesztőknek is valahogy a 11 az egyszerűbb. Ahol van egyszree 11, és 12 ott a 11 sokszor jobb, ahol nincs ott valószínűleg ha raktak volna bele szintén ez lenne.Ha érdekel valami szerelési anyag írj privátot. Eladó Schneider Mágneskapcsoló 18,5kW/38A
-
huskydog17
addikt
válasz Raggie #40086 üzenetére
Van minden: extrém hosszú töltési idők, random összeomlások, képarány problémák, sokaknak el sem indul DX12-ben a játék stb.
Teljesen mindegy, mert használhatatlan, a felhasználókat a legkisebb mértékben sem érdekli, hogy miért, azt látják és tapasztalják, hogy egy fos, míg DX11-ben a játék jól működik. Ez olyannyira tény, hogy maguk a fejlesztők és kiadó is a DX11-et javasolja mindenkinek.
Ah, hogy később jobb lesz-e, nem tudni, de igazából annyira nem is fontos, mert mire rendbe rakják, addigra nem az a játék lesz a trendi, vagyis szinte senkit nem fog érdekelni, a launch-ra kell jól összerakni, hogy nagyon szóljon. Utólag hiába kalapálják helyre, senkit nem fog érdekelni, elékezz csak vissza az AC Unity-ra, ott is a launch technikai szempontból katasztrófa volt, utólag ugyan rendbe rakták, de a legtöbb ember ugye a launch-ra emlékszik és elkönyvelték, hogy az a rész egy sz*r, miközben ma semmi baja nincs (saját tapasztalatból is mondom).
Control-nál ugyanez volt, a DX12-es mód súlyos problémákkal küzdött (lehet még ma is), emiatt sokan DX11-ben tolták/tolják.#40087 do3om: Szerencsére akad 1-2 üdítő kivétel, ahol a DX12 lényegesen jobb lett a 10 éves DX11-nél, az egyik legszebb példa ugye a Shadow of the Tomb Raider, ahol a kiadó nyomás ellenére a Nixxes példa értékű DX12 leképzőt készített. Az is tény sajnos, hogy nagyítóval kell keresni azokat a címeket, amelyek DX12-ben lényegesen jobban működnek, mint DX11 alatt.
[ Szerkesztve ]
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
Raggie
őstag
válasz huskydog17 #40088 üzenetére
Persze én ezt értem, és egyet is értek sok helyen. Csak annyit mondtam, hogy ezért nem feltétlenül a DX12 a hibás, hanem a fejlesztők hoztak egy döntést.
Egyébként szerencsére itt a tempóval nincs gond DX11-ben, mert pl GTX1060/RX590 is elviszi Ultrán.
Clint Eastwood FTW
-
Ragnar_
addikt
válasz huskydog17 #40085 üzenetére
Most vagy a szabvány értelmetlen, vagy a fejlesztők nincsenek a helyzet magaslatán, de hogy egy specifikáció az alkalmazásnál 4 év múlva is katasztrófa legyen, az vicc. A Vulkanról több jót hallani, de azt se sűrűn alakalmazzák.
[ Szerkesztve ]
Ryzen R5 1600X - ASUS PIRME-B350 PLUS - 2x8Gb G.Skill Aegis 3GHz - Gigabyte 1070 G1 Gaming
-
Abu85
HÁZIGAZDA
válasz Raggie #40089 üzenetére
Nem az API a hibás. A Borderlands 3 esetében a memóriamenedzsment a gond. Ezt úgy fogják orvosolni, hogy az egészet úgy ahogy van kicserélik az AMD által írt D3D12 Memory Allocatorra. Viszont ezt nem tudják csak úgy kiadni, mert utolsó pillanatban hozott döntés, és nincs elég teszt erre vonatkozóan.
A probléma onnan származik, hogy az Unreal Engine 4 DirectX 12-re írt memóriamenedzsmentje nem thread-safe. Tehát nincs garantálva, hogy többszálú feldolgozásnál hibátlanul működik. Ellenben a Borderlands 3 többszálú parancsgenerálást használ, amivel az erőforrások létrehozása is többszálú. Na most a thread safety probléma kezelésére van beépítve a motorba egy olyan rutin, amely ellenőrzi folyamatosan, hogy az adott erőforrás használatban van-e, és ez okozza a rendkívül rossz működést. Ennek a megoldása az Unreal Engine 4 esetében az, hogy a rendszer csak erősen korlátozottan használjon többszálú parancsgenerálást, úgy, hogy ne kelljen alkalmazni ezt a rossz hatásfokú rendszert. A másik lehetőség a Vulkan, ugyanis a Vulkan API tekintetében az Unreal Engine 4 már thread-safe memóriamenedzsmentet használ, csak az erre vonatkozó fejlesztések, még nem kerültek visszaportolásra a motor DirectX 12 leképezőjébe.
A harmadik lehetőség írni egy egyedi DirectX 12-es memóriamenedzsmentet az Unreal Engine 4-be, vagy beépíthető az AMD D3D12 Memory Allocator, ami eleve thread-safe megoldás. Viszont az Unreal Engine 4 miatt ebbe is lehet, hogy módosítás kell, mert ezt a memóriamenedzsmentet az AMD az erőforráshalmazra vonatkozó specifikációknak a tier_2-es szintjére írta, és ugyan kezeli a tier_1-et is automatikusan, csak szimplán olyan egyszerű megoldást alkalmaz rá, hogy elszeparálja az erőforrásokat és kész. Szóval valószínűleg lesznek itt is módosítások még, bár kiindulásnak jó.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
s.bala31
őstag
Division 2 is fos DX12 alatt, folyamatosan crashel, pedig gyorsabb lenne mint a Dx11-el. Azt gondoltam anno hogy 2020-ra már szinte csak DX12-es játékok jönnek, valahogy nem igazán megy ez az átállás.
-
Habugi
addikt
válasz Kolbi_30 #40094 üzenetére
Egy romhalmaz az egész, a megjelenése óta épült le folyamatosan, a magam részéről egy hete eresztettem el (& kb az egész 40fős klán is), mondván majd év vége felé visszanézünk rá.
..játékokban a Depth of Field bizonyos szempontból olyan mint a zöldborsó.., szükség idején valami állat kitalálta hogy ehető...
-
Dtomka
veterán
válasz s.bala31 #40092 üzenetére
DirectX 12
Én már 2015 ben azt hittem, hogy a dx12 által szebbek és még jobbak lesznek a játékok. Lassan 5 év telt el...
Annyit tapasztalok , hogy szebbek sem lettek, és lassabbak...Leginkább a BF V nagy csalódás számomra, mert ott sokkal kevesebb az fps (+ microlagg)
De talán majd a dx 13 ... -
nagyúr
-
Ragnar_
addikt
válasz Dtomka #40096 üzenetére
Szerintem sokszor van az , hogy 10+ évig toldozzák az enginet (CoD) és nem fogják a nulláról újraírni, hogy optimális legyen a legújabb szabvány szerint, hanem annyi lesz csak, hogy akár működőképes dx12 alatt is, de így totál elvesznek az előnyök, sőt. Ott az Ashes engineje amit direkt dx 12-re lett írva ott azért látszanak pozitívumok. De amíg konzolra 10x annyi játékot adnak el valószínűleg nem foglalkoznak annyira a PC porttal.
[ Szerkesztve ]
Ryzen R5 1600X - ASUS PIRME-B350 PLUS - 2x8Gb G.Skill Aegis 3GHz - Gigabyte 1070 G1 Gaming
-
Habugi
addikt
válasz velizare #40097 üzenetére
Szerintem a memory leaktől nem szenvedett amikor megjelent, h megtölt bármennyit és amikor túlcsordulna/ürít akkor másodpercekre beáll.
A bugokról nem beszélve, T pose ami mára úgy ahogy eltűnt de még mindig belefutni azért, vagy a talaj alá eső minitankok, az hogy ha kötélen lövöd le a BT mobot akkor beáll a script mint a gerely és mehet a restart, legyen az egy Roosevelt vagy RAID..
(Csak hogy olyanokat említsek amiket az utóbbi időben kihagytam a felsorolásokból de olvastad őket..)
Itt is csak annyit akartam érzékeltetni, hogy a játék kb legeslegkisebb gondja most a DX12, vagy hogy az NV driveres fordítója kuka hozzá.
[ Szerkesztve ]
..játékokban a Depth of Field bizonyos szempontból olyan mint a zöldborsó.., szükség idején valami állat kitalálta hogy ehető...
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Projektor topic
- LG C3: egy középkategóriás OLED tévé tesztje
- Router gondok
- Egy kabaré volt az Edge 50 család belgrádi bemutatója
- iPhone topik
- 3D nyomtatás
- Azonnali játékos kérdések órája
- Gaming notebook topik
- Elektromos (hálózati és akkus) kéziszerszámok, tapasztalatok/vásárlás
- Robogó, kismotor
- További aktív témák...
- Lenovo Legion 5 pro Ryzen 5 5600H RTX 3060 16GB Ram 500gb+1TB NVMe SSD 165hz 2k kijelző
- Corsair VENGEANCE RGB PRO 16GB 3200MHz
- GIGABYTE H310M H
- Ej-Ha! Lenovo ThinkPad P53s Szép Home & Business Laptop -70% 15,6" i7-8665U 16/512 Quadro P520 2GB
- Új Lenovo ideapad 5 Pro Prémium Ultrabook 14" -30% Bivaly Ryzen 5 5600U 8GB 512GB 2,2K RADEON 2GB!!
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen
Cég: Ozeki Kft.
Város: Debrecen