-
IT café
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
bitblueduck
senior tag
válasz
M@trixfan #48494 üzenetére
elkő olvasni a részleteket
ez az első kicsit tényleg cinkes, de javítják nemsokára:
Issue: DaVinci Resolve (Studio) 19.1 cannot launch with an RTX 50-series GPU.
Workaround: None
Other Information: BlackMagic provided a pre-release build of DaVinci Resolve Studio to reviewers that works with the RTX 50-series. We expect this build to be made available to the public in the near future.ez viszont nem tűnik nagy problémának:
Issue: Built-in benchmark does not work on Topaz Video AI 6.0
Workaround: None
Other Information: Appears to be only an issue with the built-in benchmark, and not with the normal functionality in Topaz AI[ Szerkesztve ]
-
válasz
M@trixfan #47557 üzenetére
Ezt nem lehet szerintem túl hamar ráeröltetni a játékiparra. Ez egy hosszú evolúciós folyamat.
Még egyetlen játék sem született ( kivéve techdemókat) ami kizárólag PT-t vagy RT-t használna pedig ez már az 4. generáció, lassan 10 éve a játékipar része.
Enélkül nagyon nehéz előrelépni grafikailag. Az más téma hogy a játékfejlesztés minősége sem volt még soha ennyire alacsony színvonalon szerintem mnt mostanában. RT nélkül sem képesek nagyon megcsinálni egy játékot anélkül, hogy ne legyen fullon buggal és technikai hibákkal. Mindegy mi okból, idő vagy pénz.Lehet ezelött 15 éve hasonló hardverekkel hasonló játékokban az RT is már előrébb tartana.[ Szerkesztve ]
-
-
hahakocka
őstag
válasz
M@trixfan #47199 üzenetére
Az art style, látványvilág design stb épp ezért volt fontos megannyi nagy játékban. Clive Barker's Undying pl de sokat lehetne említeni. Na az AI-val, félek ez megszűnik majd sok más mellett. Már mindenhol elkezdték ugye használni kb. RT technológiailag többet tud, de sokszor ez elveszi aztán egy adott játék lényegét a kedves fejlesztők csak arra fókuszálnak másra már nem nagyon.
[ Szerkesztve ]
-
cucka
addikt
válasz
M@trixfan #47199 üzenetére
Pont hogy a hagyományos renderelés az, ami hókuszpókusz meg szemfényvesztés, az RT-hez képest. Vagy nem tudom, mitől jobb bekamuzni, hogy egy jelenet be van világítva, ha most már valóban be is tudod világítani?
Ja és ennek kb. semmi köze a művészi kreativitáshoz, meg a többihez amit írsz. Random kevered a játék technológiai megvalósítását a game design-al.
-
X2N
őstag
válasz
M@trixfan #46926 üzenetére
Szívemből szóltál(elrontott az egész álló "ház" koncepció, a fektetett ház volt mindig is a jó), nincs olyan PC ház amire lecserélném a mostani rackes házamat:
Nevetséges hogy méregdrága kártyák azért mennek tönkre mert elreped a pcb a hűtés súlyától, meg nem lehet felrakni egy oldallapot mert derékszögben kiáll a kártya oldalából az 1db tápkábel...[ Szerkesztve ]
-
Raymond
titán
-
Raymond
titán
válasz
M@trixfan #45716 üzenetére
Roviden - a savszel nagy is meg nem is. Akkor gyorsabb ha Intel/AMD CPU inferencinghez hasonlitod mert a savszel 2.5-3.5x nagyobb es ennyivel yorsabb is az inferencing ugyanazzal a modellel es merettel. Egy GPU viszont ezzekkel is sokkal gyorsabb. Akkor kell/erdekes a nagyobb RAM ha olyan modellt akarsz olyan quant-al hasznalni ami mondjuk nem fer be a VRAM-ba mert tobb mint 16GB vagy 24GB kene neki. Ott viszont a Pro-nal levo 273GB/s nem eleg normalis sebesseghez es feljebb kell lepned az 546GB/s Max verziokoz ami jelentosen megdobja az arat.
-
Teasüti
nagyúr
válasz
M@trixfan #45605 üzenetére
Amíg nem lesz 100% RT egy játékban, addig sajnos a fejlesztők kénytelenek lesznek kétszer elkészíteni ugyanazt. Vagy lebutítani annyira az RT-t, mintha ott se lenne. Ha utólag húzzák rá a játékra, akkor ahogy a remaster-ek esetén látható olykor hagy némi kívánnivalót maga után az új világítás ha nem igazítják hozzá a játékot. De még "sima RT" és Path Tracing közti váltásnál is változhat a jelenet dinamikája, ha változatlanul hagyják a játékot.
A vizuálisan szétesik az egész játék az azért kicsit erős.
Ha meg eljutunk majd egyszer odáig, h full RT lesz a trendi és elvetik a raszter világítást, akkor meg pláne nem lesz ez igaz.
RTX remaster esetén látható, hogy az eredeti hangulata az viszont elvész.
Élethű fény-árnyékokkal nehéz visszaadni egy eleve fizikailag hibás képi világot ami önkényes művészi döntések alapján készült.[ Szerkesztve ]
-
S_x96x_S
addikt
válasz
M@trixfan #44433 üzenetére
> Ez a késés gamer vonalat érinti, vagy csak a datacenter “AI” kártyákat?
(szerintem)
nincs elég infó, hogy biztosan el lehessen dönteni.
Most csak a High-End Blackwell -es ( Data-center GPU ) problémák vannak
kiemelve a hírekben, az rtx50 nem volt említve.Amúgy ~1 hónapja (2024jul22)
már volt sejtetés (kopite7kimi),
hogy az "RTX 50" 2025-re csúszik, de ott nem lett megemlítve az ok.
"NVIDIA GeForce RTX 50 announcement may slip to 2025"Lehetséges, hogy a két hír összefügg,
és a mostani hír - áttételesen - még inkább megerősíti,
hogy nem lesz 2024-ben RTX 50. -
Teasüti
nagyúr
válasz
M@trixfan #44371 üzenetére
Eh, nem törik amíg 40 Hz felett tudom tartani. De azért abban a tartományban már érezni a lassúbb sebességet. Azért nem mennék vissza a 30 fps Xbox korszakba, na. Mondjuk annyi előnye lenne egy AMD kártyának Nv-vel szemben, hogy a legtöbb monitor az Freesync-es és nálam 20 Hz-ig le tudna menni, míg egy G-sync Compatible módban 40 Hz-nél megáll működni a VRR. De az a nagy helyzet, hogy igazából ez is mindegy mert se 40 fps-sel, de 20-szal meg végképp nem akarnék játszani.
Nálam olyan 80 felett van a sweet spot a 144-es monitoron, ahol meg nem mondom a mozgásból, hogy nincs elég szufla.
De minél kisebb az fps, annál marginálisabb az a 15-20%. Mindkettő gyenge lesz, ez van.
Adjon 50%-al többet, az azért már látványos különbség![ Szerkesztve ]
-
t72killer
titán
válasz
M@trixfan #44032 üzenetére
Tény, a 4090esek ára némileg emelkedett az elmúlt hónapokban és lehet h MOST nyereséggel tudnál kiszállni egy fél évig hajtott kariból. De hacsak nem jön be egy újabb bányászkorszak (szvsz az a vonat már elment) akkor ez kérészéletű emelkedés, amit gyorsított értékcsökkenés fog követni ahogy piacra dobják az új generációt.
HA ki is használta a júzer legalább 90%-ban a kari kapacitásait, akkor mondhatjuk, hogy volt értelme megvenni, igazából bármi akkor éri meg, ha jelen időben kevés a ki nem használt/nem érzékelt plusz teljesítmény, mert a tech ára idővel ha némi szórás van is, csökken.A 4090 valami iszonyat bivaly kártya, egyrészt kevés értelmes cím van, ami tartalmat ad alá, másrészt ha nincs hozzá egy jól belőtt 7800x3D vagy tuninger új i7 proci, 4k 100+fps monitor akkor full feleslegesen vetted. Én most az újabb címekből kizárólag a diablo4-et tolom: ez 4k-n, bekapcsolt RT mellett rendben fut a 4070TiS-en. 500 fontért szereztem a karit, nekem ennyi kraft elég. Minek parkoljak be még egy ezrest VGA-ba, amikor nem is látom a pluszt, amit hozna
?
Nem-játék felhasználás: igen, fogok próbálkozni Stable Diffusion és hasonló AI bohóckodásokkal, itt ugye a kérdés, h mennyire idegesíti fel az embert, ha "lassú" a kártya. De mivel egy leadom a feladatot + elmegyek vacsorát főzni típusú feladatkörről van szó, kb mind1...[ Szerkesztve ]
-
huskydog17
addikt
válasz
M@trixfan #43632 üzenetére
DLSS és DLAA ugyanazt az élsimítási technikát használja, mindössze annyi a különbség, hogy a DLAA natív felbontáson működik, míg a DLSS upscaling alapú AA.
A DLDSR szintén egy újfajta technika, ami ugye downsampling (régen a játékok ezt Supersampling-nak hívták, aztán 2014-től általános lett driverben DSR néven, aztán az RTX-ek megkapták a DLDSR-t ami jobb képminőséget ad a hatékonyabb elsimításnak köszönhetően), de jobb minőséget ad, mint a régi (ezért is 2,25× a maximális szorzó).
Kukkantsd meg a gv kolléga által linkelt DF videót, de az csak egy játékokban mutatja be, a saját tapasztalat nyilván többet ér.#43634 gV: +1
Én szinte minden játékban használom a DLDSR-t kombinálva a DLSS Quality-vel pont 1080p a rendering felbontás, de egy natív 1080p-nél fényévekkel szebb a kép, ég és föld a különbség. Jó mondjuk régebbi játékoknál, ahol az RTX 4070 bőven bírja a natív 4K-t ott a régi DSR-t használom (4×). Ha egy adott játékban nincs DLSS támogatás, de van bőven GPU tartalék, akkor ott natív 1620p felbontáson tolom.
Rise of the Tomb Raider-nél a DLSS egy hatalmas áldás, mert ott brutális mértékű shimmering volt eddig, abban a játékban volt eddig a leglátványosabb a DLSS nyújtotta képminőség javulás.
Shadow of the Tomb Raider-nél a DLSS és XeSS flickeringet okoz néhány vízfelületen, sajnos a játék oldalán ezt soha nem javították és valószínűleg nem is fogják, mondjuk a 3.7-es DLSS-el még nem próbáltam, de a 3.5-el is volt flickering, emiatt a játék saját SMAAT2x algoritmusa jobb, csak az ugye natív AA. -
gV
őstag
válasz
M@trixfan #43632 üzenetére
Tech Focus: Nvidia DLDSR - What Does AI Downsampling Actually Do? (youtube.com)
elég jól működik. én SotTR-ben használom qDLSS-el együtt, mert 1080p-n nem néz ki jól Lara haja, ha meg csak a DLDSR-t használom kevés az fps. GTAIV/V-nél sem rossz, mert kisebb fogyiból hozza a jobb képmínőséget 4K DSR-hez képest.[ Szerkesztve ]
-
huskydog17
addikt
válasz
M@trixfan #43623 üzenetére
Nem. DLAA támogatást külön be kell építeni, mert a DLSS upscaling, míg a DLAA natív felbontáson működik (nincs upscaling). Igaz, ugyanazt az élsimítást használják, de mivel más a kettő célja, így a DLAA nem része a DLSS-nek. A kettő tehát külön beépítendő technológia.
Egyébként azon játékoknál, ahol nincs DLAA, de van bőséges GPU tartalék, érdemes a DLDSR-t használni.Ha jól tudom az Intel csinálta azt az XeSS-nél, hogy az 1.3-as verziótól már automatikusan a "csomag" része a Native mód is.
-
válasz
M@trixfan #43533 üzenetére
Nem értek hozzá, nem én találtam fel.
de szerintem ahogy írtam feljebb is,amennyira tudom értelmezni a BVH lenne elosztva és nem kellene hogy a teljes struktúra bent legyen a Vramban hanem három lépcsőben kezelné a GPU,és elválasztaná azokat amiket folyamatosan és közvetlenül használ.Valószínűleg az új SSD-k lényegesen gyorsabban kezelnék a sokkal nagyobb sruktúrát mint a Vram mérete, leválasztana magának egy szeletet a GPU. DE ahogy néztem ez lehet éppen rendszermemória is, ami meg főleg alkalmas lehet erre.
Azért mondjuk egy 12 GB vramos kártya ha kapna + 16 GB rendszermemóriát vagy 32 GB közvetlen SSD tárhelyet vagy mindkettőt, lehet tudna vele már mit kezdeni legalább is a Microsoft szerint, főleg ha mondjuk ezt textúrázásra vagy egyéb vram igényes raszter dolgokra hazsnálhatná fel a felszabaduló helyet nem feltétlenül csak RT -re.[ Szerkesztve ]
-
válasz
M@trixfan #43533 üzenetére
Egyrészt a "sok nagyságrend" a gen 5 esetében 1 és 2 között van.
Másrészt nem az számít, hogy mennyire gyors az SSD a VRAM sebességéhez képest, hanem hogy mennyire gyors a VRAM méretéhez képest. Egy gen 5 SSD egy 4070 memóriájának a tartalmát másodpercenként le tudja cserélni. -
S_x96x_S
addikt
válasz
M@trixfan #43533 üzenetére
> nekem nagyon furcsa, hogy egy vram-nál
> sok nagyságrenddel lassabb SSD hogyan forradalmasítja eztAmit fontos tudni:
- A (high-end) Blackwell már Gen6 -os lesz.
- És 2-3 év múlva már Optane kategóriájú ( ~ low latency) Gen6 -os extrém gyors M.2 SSD diszkek is elérhetőek lesznek.
- és már a Gen5 latency is sokkal szigorúbb mint a Gen4 ..vagyis ideális esetben
a Gen6-os GPU swappel a Gen6-os M.2 SSD-re. -
-
S_x96x_S
addikt
-
-
S_x96x_S
addikt
válasz
M@trixfan #42245 üzenetére
> Nagyon-nagyon fogszívva, de gondolkodom 4090-ben egy új géphez.
jövőre ha jön a Blackwell consumer szintre,
akkor tényleg nagyon olcsón lehet majd 4090-hez jutni!
a cikkből:
"We expect Blackwell to power some of the best graphics cards in 2024 and 2025, we suspect the Vera Rubin architecture may not make it to the consumer market"
~ "bár azt várjuk, hogy a Blackwell 2024-ben és 2025-ben az egyik legjobb grafikus kártyát fogja hajtani, úgy gondoljuk, hogy a Vera Rubin architektúra nem jut el a fogyasztói piacra" -
válasz
M@trixfan #42126 üzenetére
Nehéz megmondani. 2025 van egyelőre porondon. Szerintem 2025 lesz de nem ősz. ez a hír szerintem amúgy kamu .
De ha igaz, akkor reálisnak tűnhet éppen.
Az Nvidia az AMD-t tartja szem elött ,de nem akarja eltörölni, csak szinten tartani.
Annyit ad amennyit minimum hoznia kell így sajnos..
Azaz ha az AMD nem lesz számottevően jelen a következő genben a csúcs szegmensben akkor oda a 30-40 % elég. Nem fog kidobni feleslegesen 80 % előrelépést mutató kártyát, még ha megtehetné akkor sem. Szerintem most is ez miatt tartja vissza 4090 Ti.-t mert el tudja adni profeszionális szegmensbe drágábban, meg hát a következő gent akkor nem a 15 % kal gyorsabb 4090 Ti hez nézik majd az emberek hanem a 4090 hez. ha igaz így is 60-70 előnye lesz az AMD mostani kártyáihoz még úgy is ,ha nem hozza ki a 4090 Ti-t.[ Szerkesztve ]
-
Petykemano
veterán
válasz
M@trixfan #40397 üzenetére
"Lényegre törő mérnöki szemlélet, üzleti meglátás, tűzközelben jó források"
A tévedhetetlenséget kifelejtetted a felsorolásból, hacsaknem úgy értetted, hogy a mérnök sosem téved.
Mindenesetre szerintem az, hogy ne a rajt előtt pár nappal, hanem hetekkel-hónapokkal előre értesülj információkról és az, hogy az információk teljes mértékben megbízhatók, tévedhetetlenek legyenek, egymást kizáró tényezők.
Egyrészt számos olyan terv elkészülhet, eljuthat ide vagy oda, amiből végül a legjobb szándék mellett semlesz termék, vagy nem az lesz a termék, mert menet közben változott a terv. Másrészt egy cég ugyanabból akár többféle változatot is megfuttathat, kipróbálhat. Elképzelhető, hogy az egyes változatokon dolgozók nem is tudnak a másféle változatokról. Harmadrészt a cégek maguk is igyekeznek az ipari kémkedés ellen fellépni, tehát készülhetnek részeiben direkt félrevezető, hiányos, vagy hibás tervek - akár többféle változat is - amiből külöböző változatok különböző emberekhez juthatnak el.
Minél korábban vagyunk egy termék piaci rajtjától, annál nagyobb a valószínűsége annak, hogy a terv megváltozott, vagy szándékos félrevezetés céljából csak részigazságokat tartalmaz.Könnyű azt mondani egy 2-3 évvel ezelőtt készült egy mai termékről szóló videóra, hogy úristen mekkora baromságokat tartalmazott. De mi van, ha tényleg folytak olyan irányú kísérletek? Nem tudhatjuk.
1 évvel az RDNA2 release előtt egymásnak ellentmondó, de legalábbis időben változó specifikációk keringtek. Később értettük meg, hogy az AMD tényleg kipróbálhatta a különböző GDDR6+infinity-cache változatokat, vagy valamilyen felkészülhetett egy B tervre, ha valami balül sül el.
1 évvel az RDNA3 release eltőt egymásnak ellentmondó, de legalábbis időben változó specifikációk keringtek. Mostanában nyilatkozta az AMD, hogy volt terv 600W-os GPU-ra, lehet, hogy tényleg léteztek egy ideig azok a 16k shaderes tervek, amiket aztán letekertek.Szerintem aki nem bírja ezt a műfajt, mert belső bizonytalanságot érez a tévedések miatt belső ingerenciát azok számonkérésére, az inkább ne nézze. És persze a nézőknek sem szabad ezeket biztos információnak kezelni.
Mérnöki pontosságot, alaposságot és precizitást én a High Yield, Locuza csatornáin szoktam látni a Youtube-on. De ők megjelent termékek információt elemzik, nem utaznak leak-ekben.
[ Szerkesztve ]
-
Dyingsoul
veterán
válasz
M@trixfan #29532 üzenetére
Redditen azt írják nem, az a GPU-ba is lehet integrálva. Magyarul a Traversal Co Porci = újfajta RT magok.
Egyébként egy 2080 Ti PCB-jéhez hasonlítva szerintem sokkal kevesebb komponens van ezen a nyákon. Akkor is, ha sorba vannak rendezve vagy mondjuk bármiféle mérnöki mániát, ha összenézem egy 2080 Ti PCB-jével azon sokkal-sokkal több SMD komponens van.
Itt valami turpisság tényleg lesz a GPU-ban, ha nagy teljesítménytöbblet lesz egy 2080 Ti-hez képest és azt meg tudják oldani egy ekkora form factorban.
Viszont szerintem a 3080, 3070 azok normál NYÁK-kal jöhetnek. Erről volt már infó?
[ Szerkesztve ]
-
Dyingsoul
veterán
válasz
M@trixfan #26847 üzenetére
Hát én nem láttam, köszi az inputot!
De én úgy vagyok vele, hogy ez igazából a fejlődés része. Ezekben az eszközökben kevés olyan tényező van amit lineáris vagy exponenciális skálázással lehet fejleszteni. És persze, hogy sok dolgot a költséghatékonyság jegyében kell bevállalni, sajnos ez van ha a fogyasztói piacra készítesz terméket.
Lencsék kapcsán jobb megoldás lehet a több lencse beépítése. Ilyesmire gondoltál? +Hajlított OLED? Ha publikus a tanulmány, engem érdekelne.Ha gondolod gyere át a VR topikba kitárgyalni, ne szemeteljük itt tele.
-
GeryFlash
veterán
-
Dyingsoul
veterán
válasz
M@trixfan #26844 üzenetére
Láttad mennyibe kerülnek a TV-k és a gamer monitorok? Ahhoz képest szerintem nem drága... Rift S Euró emelkedés és készlethiány előtt 170 pénz volt, itthon, áfával. Oculus Quest szintén (nem kell hozzá PC). Jó egy TV elé az egész család eléülhet. A Riftet meg körbeadhatják... A 2D megjelenítők soha nem fognak ekkora élményt adni, ezt nem lehet szóban, pénzben kifejezni. A kétszer-háromszor ennyibe kerülő telefonok nem drágák? Sok helyen, fórumokon a véleményeket olvasva kezd kikopni a drágaság, mint ellenérv. Ráadásul sokan vannak akik kapufát lőnek ezzel az érvvel, mondván, hogy fejleszteniük kell a PC-t miközben VR ready gépekről írogatnak... 3-4 éves mantrákat nyomnak az emberek mert nincs megfelelő információs csatorna a tájékoztatásukra. Olvasd el a cikket utána pedig nézz bele a hozzászólásokba. Kisebb botrány lett ebből a fórumon.
Szerintem lassan el lehet felejteni azt, hogy drága, minden viszonyítás kérdése."Jó, nem lehet mindenki innovátor mérnöki szemléletű, mindig elcsodálkozom hogy alapvető dolgokat nem értenek emberek."
Érdekes, hogy ezt pont egy olyan topikban rovod fel nekem ahol megjelenés előtt álló technológiákat és architekturákat beszélünk ki...Akinek szimpatikus a techonlógia és vágyik rá az már most is meg tudja venni.
[ Szerkesztve ]
-
Dare2Live
félisten
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Miskolc és környéke adok-veszek-beszélgetek
- Elkezdte felszámolni a GPU-s PhysX támogatását az NVIDIA
- AMD GPU-k jövője - amit tudni vélünk
- A fociról könnyedén, egy baráti társaságban
- Projektor topic
- PROHARDVER! feedback: bugok, problémák, ötletek
- Szívós, szép és kitartó az új OnePlus óra
- Mibe tegyem a megtakarításaimat?
- Ukrajnai háború
- Akciókamerák
- További aktív témák...