-
IT café
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
deathcrow42
aktív tag
válasz huskydog17 #47811 üzenetére
5080 - 4080 super pláne vicces így: 10-12% különbség, annyival magasabb fogyasztás és megjelenéskor másfélszeres árkülönbség
Ex frostshock.eu szerkesztő :)
-
huskydog17
addikt
válasz huskydog17 #47732 üzenetére
Érkezett frissítés:
Az RTX 5080-as MSRP kártyák tesztjei 01.29-én jelennek meg.Ezzel az 5080-ért sorban állók is megkapják a teszteket időben.
A nem MSRP (OC vagy prémium, kinek hogy tetszik) custom design-ok tesztjei továbbra is 01.30-ra vannak belőve.
[ Szerkesztve ]
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
hokuszpk
nagyúr
válasz huskydog17 #47739 üzenetére
"Ez csak annak gond, aki 01.30-án hajnalban sorba akar majd állni,"
pár nappal előtte már ott fognak táborozni az üzletek előtt.
mint rendesen[ Szerkesztve ]
Első AMD-m - a 65-ös - a seregben volt...
-
Busterftw
nagyúr
válasz huskydog17 #47739 üzenetére
Talan warcat irta, hogy kb delutan 2-3 kozott szokott launch lenni boltoknal, de nem tudom az CET idore ertette-e
Igazabol a 5080 FE lesz kb az, hogy talan 1-2 napig birja az elso keszlet.
4080-nel emlekszem volt stock par napig.Azert lenne jo tobb ido, tobb modellrol legyen teszt.
-
Busterftw
nagyúr
válasz huskydog17 #47732 üzenetére
Annyira nem buli, hogy 5080 teszt es launch egy napon lesz, nincs ido mindent atnezni
-
fatal`
titán
válasz huskydog17 #47443 üzenetére
Nem a platformról volt szó, hanem a kártyák encoderéről és annak a fejlesztéséről, aminek a YT esetén kizárólag live streamkor van közvetlenül szerepe. Ami viszont pont ugyanannyira rétegigény (és nem platform) egy GPU vásárlásakor, mint a VR és én erről beszéltem.
Nem hiába. Magas bitrátás, azaz nagyon jó minőségű forrásból a YT is sokkal jobb végeredményt fog adni, mint egy középszerű vagy szar forrásból.
Nyilván jobb minőséget fog adni, ezt nem is vitatom, a hiábával kicsit túloztam. Ettől még mikor utoljára néztem, jóval sötétebb lett a videó, mint, amit feltöltöttem. Mondom, lehet, hogy ezt azóta javították, ritkán töltök fel videót.[ Szerkesztve ]
-
fatal`
titán
válasz huskydog17 #47418 üzenetére
A YouTubera való live streaming GPU-val rétegigény, semmiféle többmilliárd felhasználó nincs, aki live streamelne.
A feltöltés nem on the fly encoding, a videók nézése meg mégcsak nem is encoding.
Hiába töltesz fel sokszoros bitrátával, azt lekonvertálja. Bár lehet, hogy mostanra már javították, hogy egy sötét szar lett belőle.
[ Szerkesztve ]
-
M@trixfan
addikt
válasz huskydog17 #47418 üzenetére
Én ProRes anyagot töltöttem fel, ott aztán hadd kódoljon a YouTube! Amúgy mindig újrakódol minden esetben?
twitter: MatrixfanLive | Ősidőktől a PH!-n
-
fatal`
titán
válasz huskydog17 #47412 üzenetére
Szerintem a streaming pont ugyanolyan rétegigény.
A YouTubeon van HEVC, de minek, borzasztó hulladékot kódol belőle. Inkább bitratet kéne emelni, meg 60 fps-nél nagyobb videók támogatása se lenne rossz.
Én csak azt mondom, hogy szerintem nem baj, ha még fejlesztenek az AVC encoderen, van létjogosultsága.
-
gejala
őstag
válasz huskydog17 #47406 üzenetére
"viszont engem nagyon meglepett, hogy még mindig ölnek erőforrást a borzalmasan elavult AVC kodekbe"
Egyedül az AVC-nek van gyakorlatilag 100% kompatibilitása szerkesztés és lejátszás tekintetében is. HEVC-nek elég jó már manapság, de azért közel se AVC szint. AV1 kompatibilitása gyakorlatilag nulla, csak akkor van értelme használni, ha garantáltan nem akarod szerkeszteni. -
huskydog17
addikt
válasz huskydog17 #47250 üzenetére
Kiegészítés:
Meglett a válasz a multimédia motor frissítésre. Szóval aki érdekel, hogy pontosan milyen fejlesztéseket kapott az NVDEC és NVENC:
"Decoding 4:2:2 video can be challenging due to the increased file sizes. GeForce RTX 50 Series GPUs include 4:2:2 hardware support that can decode up to eight times the 4K 60 frames per second (fps) video sources per decoder, enabling smooth multi-camera video editing.
The GeForce RTX 5090 GPU is equipped with three encoders and two decoders, the GeForce RTX 5080 GPU includes two encoders and two decoders, the 5070 Ti GPUs has two encoders with a single decoder, and the GeForce RTX 5070 GPU includes a single encoder and decoder. These multi-encoder and decoder setups, paired with faster GPUs, enable the GeForce RTX 5090 to export video 60% faster than the GeForce RTX 4090 and at 4x speed compared with the GeForce RTX 3090.
GeForce RTX 50 Series GPUs also feature the ninth-generation NVIDIA video encoder, NVENC, that offers a 5% improvement in video quality on HEVC and AV1 encoding (BD-BR), as well as a new AV1 Ultra Quality mode that achieves 5% more compression at the same quality. They also include the sixth-generation NVIDIA decoder, with 2x the decode speed for H.264 video.
NVIDIA is collaborating with Adobe Premiere Pro, Blackmagic Design’s DaVinci Resolve, Capcut and Wondershare Filmora to integrate these technologies, starting in February.
3D video is starting to catch on thanks to the growth of VR, AR and mixed reality headsets. The new RTX 50 Series GPUs also come with support for MV-HEVC codecs to unlock such formats in the near future."Tehát a dekóder (NVDEC) 4:2:2 színformátum támogatást kapott és egy darab dekóder blokk 8 darab 4K60 fps streamet képes dekódolni. Az 5090-ben és 5080-ban kettő ilyen dekóder van, azaz 16 db 4K60fps streamet képesek egyszerre dekódolni (a két 70-es kártyában 1 darab blokk van). Ezen felül MV-HEVC támogatás jön 3D videókhoz (VR&AR). Továbbá az ősöreg AVC (H.264) kodekkel történő dekódolás tempóját megduplázták.
NVENC motor esetén javult a képminőség HEVC és AV1 kodek esetén, illetve AV1 Ultra Quality-nél a tömörítés hatékonysága. Ezen felül itt is érvényes a MV-HEVC támogatás.
Az 5090-ben három NVENC blokk van, az 5080-ban és 5070Ti-ban kettő, míg a sima 5070-ben egy darab.Hát, a tippem nem jött be (VVC), viszont engem nagyon meglepett, hogy még mindig ölnek erőforrást a borzalmasan elavult AVC kodekbe. Reméltem, hogy mihamarabb kihal, de ezzel csak késleltetik a kihalását.
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
X2N
őstag
válasz huskydog17 #47320 üzenetére
RIP normális memória/CPU hőmérséklet
-
nagyúr
válasz huskydog17 #47250 üzenetére
Gondban is vagyok amúgy azzal, hogy hogyan értékeljem ezt a szériát. Eddig alapvetően a raszteres teljesítményt néztem az árhoz, és ott vártam 30-40% javulást, de most már én is ott kezdek tartani, hogy a sok feture mellett nem lehet legyintve elmenni. Mondjuk nekem ez a 3x framegen nagyon fura, az 1x verzió tetszik, mert mondjuk 40 helyett 70 az értelmes, de a 40 helyett 140 kevésbé tűnik reális use case-nek, a 70 helyett 240 meg pláne, miközben a késleltetés marad.
Remélem, lesznek olyan tesztek, ahol natív, DLSS és FG mérések lesznek külön külön."We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
S_x96x_S
addikt
válasz huskydog17 #47250 üzenetére
> így ezek a megmondó emberek már most elkezdték temetni az 50-e szériát,
Jensen kifejezetten a 40-es szériát temeti!
"Nvidia's new RTX 5070 will deliver 'RTX 4090 performance" at $549
ráadásul
- 12GB-al ( vs. 24GB )
- és 1/3 áron!Mottó: "A verseny jó!"
-
hahakocka
őstag
válasz huskydog17 #47250 üzenetére
A techteszterekkel S Azorèkkal kèszült 9070 es interjút olvastad? Elèg magabiztosak voltak pedig S ez közvetlen Nvidia show előtt volt tuti ismertèk kb màr addigra őket. Belső információkat előbb szoktàd tudni egymàsról. 5090 2000 dolcsi valós majd 2400 kb. 4090 1600 dollár msrp melyik dràgàbb? 20-25% gyenge RT S gameben amivel sokan következtettek a raszterre nem is volt raszterről egy dia se. Vajon mièrt? Lehet ezèrt csökkentettek èpp. Valós erő lehet elmarad? FSR 4 driverrel lesz Rdna 2-3 ral , erről is beszèltek az interjún. Eddig is FSR T nem egy genen hasznâltäk
[ Szerkesztve ]
-
Quadgame94
őstag
válasz huskydog17 #47250 üzenetére
Mondjuk azt te is elfelejted, hogy az AMD sehol nem jelezte, hogy itt GPU-kat mutatnának majd be
Ezek után talán most már még jobban, tökéletesen érthető Jack remegése a színpadon.
Mik után? Semmilyen egetrengető dolgot nem jelentettek be. Az 5090 egy mérnöki csoda? Nos 744 mm2 lapkára épül... A GB203 meg egy AD103 refresh. Mindenképpen egy választás az AMD részéről, hogy nem akarnak ilyen irányba menni. Hogy miért jó kérdés. Azt gondolom, hogy most is tudtak volna egy RTX 4090 +10%-os kártyát kiadni. De ez valószínűleg nem éri meg nekik, főleg nem RDNA4 alapon. UDNA már más kérdés lesz.
[ Szerkesztve ]
-
félisten
válasz huskydog17 #47049 üzenetére
Redditen azt írja egy tag hogy update formájában mehetne rá, mert a DP 2.1 mellé a vezérlő tudni fogja a HDMi 2.2 sávszélt is biztosítani. Fene tudja meglátjuk.
Busterftw: Szerintem majd 2027 körül
DE nem tudom hogy fizikailag frissíthető e a 2.1b.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
válasz huskydog17 #47043 üzenetére
[HDMI Forum Announces Version 2.2 of the HDMI Specification with 96 Gbps of Bandwidth]
Állítólag az új kártyák már lehetséges, hogy támogatják,de nem hivatalosan még.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
válasz huskydog17 #47043 üzenetére
Csak legyen is 3 méteres kábel hozzá emberi áron.
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
GeryFlash
veterán
válasz huskydog17 #46975 üzenetére
FIatal motor? Konkretan majusban lesz 5 eves.
Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?
-
T.Peter
őstag
válasz huskydog17 #46975 üzenetére
A stutter csak kozvetett performance problema, az nem optimalizacio kerdese. Ha a studio ugy dont hogy elozetes shader forditas van, akkor nem lenne on the fly shader forditas miatti akadas. Ez dontes kerdese, semmi koze hozza az engine-nek. Rossz donteseket hoznak a fejlesztok. A betoltes miatti akadas mar reszben engine problema, de ott is vannak dontesek, amiket nem hoznak meg vagy rosszul dontenek es igy nem lesz orvosolva a betoltes miatti akadas.
A verziok kozotti upgrade-ek meg segitenenek alapbol annyit, hogy ne kelljen bizonyos dolgok felett annyit ulni.
Ha a nanite rendesen van hasznalva akkor nincs pop-in. Ha hasznalnak distance cull-t vagy hlod-ot akkor mar lesz pop-in.
Nem vitatom az ubi motorjainak sikeret/bravurjat (csomo jo dolog van ott is, a northlight-ban is a remedy altal es meg lehetne sorolni, szoval van elet az ue-n tul is), de az sem normalis, hogy olyanokert hibaztatunk mas motorokat, amik elsosorban a fejlesztok hibaja. Raadasul az ue-nek teljesen mas dolgoknak kell megfelelnie, mivel azt nem arra terveztek, hogy 1 studio hasznalja csak. Lehet, hogy itt a jatekosoknak nem tetszik a vegeredmeny, de mint mar irtam, nem veletlen, hogy nagy szazaleka a studioknak atall, mivel nincs a piacon masik motor, ami azt tudna, amit az ue, legalabbis ebben a formaban. -
Komplikato
veterán
válasz huskydog17 #46975 üzenetére
Mondjuk LOD popping érdekes lenne, ha konkrétan nem használnak LOD-ot azaz full nanite a játék. Ha viszont nem az, akkor minek ide UE5? Miért nem használnak UE4-et vagy Unity-t?
A verziószám meg igen is fontos, mert rohadt sokat gyorsult a Lumen GI, meg lehet a Wukongban sem villognának az árnyékok, stb. Volt olyan játék amiben a stutert nem balfaszul megoldott on-the-sly shader fordítás okozta?
Jelenlegi problémás játékok multiplatformos, régi bugos verzióval futnak és/vagy UE4 alól rántották át őket a kötelező favágó meló kihagyásával.
Az Embark csinált egy Finals multi játékokat, de szerintem még a closed bétás Arc Raiders sem fut olyan szarul, mint ezek. Jó, persze az ott dolgozók egy része fejlesztette a Frostbite Engine-t anno, de ők valamiért ezzel is tudnak dolgozni.
Az is ide tartozik, hogy egyik magyar nyelvű videóban egy hazai fejlesztő is azt állította egy valamire való UE5 játékhoz az alap (nem high meg ultra!) grafikához a minimumnak 16GB vram kellene."Figyelj arra, aki keresi az igazságot és őrizkedj attól, aki hirdeti: megtalálta." - (André Gide)
-
T.Peter
őstag
válasz huskydog17 #46967 üzenetére
Tegyuk mar hozza, hogy a legtobb ue jatek 5.1-gyel jott ki, alig volt 5.2-vel es 5.3-mal. 5.4 - 5.5 meg meg sehol sincs. A botranyosan szarul teljesit allitas meg elegge tulzas, van olyan jatek ami jol fut, csak tobb energiat kellett bele rakni.
Az avatarnal olyan lod pop-ok vannak, amiket ue-vel nem latsz. Szoval valamit valamiert. Fortnite-ban van pop-in a cull distance es az hlod-ok miatt sajnos.[ Szerkesztve ]
-
deathcrow42
aktív tag
válasz huskydog17 #46895 üzenetére
Én anno ezeket mind az Anandtech összefoglalóból néztem, és kb sosem élőben, mert alapvetően nem túl érdekesek számomra. Az előadás után meg már Anandtechen ott volt kb. az összes infó sorban.
Anandtech most már nincs...
Ex frostshock.eu szerkesztő :)
-
hahakocka
őstag
válasz huskydog17 #46886 üzenetére
Mármint akkor kedd hajnal már az időeltolódás miatt ?
AMD s Intel mikor lesz?
-
deathcrow42
aktív tag
válasz huskydog17 #46886 üzenetére
Reggel felkelsz és megnézed jutúbról, nem vesztesz semmit
Ex frostshock.eu szerkesztő :)
-
veterán
válasz huskydog17 #46046 üzenetére
Tehát te ezt a két teszted hozod a TPU-s teszt mellé ami egyébként frissített 2024 juliusi, csak az alap játékkal.
Az egyik tesztben
"Az Alan Wake 2: Night Springs nem rendelkezik túl bonyolult textúrákkal, és a VRAM éhsége ennek megfelelően visszafogott." Tehát a kieget tesztelték ahol lebuutzitották a texturákatMásik teszt
"Annak érdekében, hogy megakadályozzuk a grafikus kártyák összeomlását a sugárterhelés alatt, aktiváljuk az upsampling funkciót a megfelelő minőségi módban."
Kiemelném :megakadályozzuk a grafikus kártyák összeomlását"Ez nálad mit jelent? a 12Gb kártyákat amiről szó van Tényleg perdöntő hogy modosították a tesztet hogy ne szarják össze megukat
-
veterán
válasz huskydog17 #46034 üzenetére
Annyit tennék hozzá hogy ezek nem ugyan azt tesztelik am, hanem kieget meg DLC. az sem tiszta hogy van beépitwett bench vagy mindenki mást tesztel
"Az Alan Wake 2: Night Springs nem rendelkezik túl bonyolult textúrákkal, és a VRAM éhsége ennek megfelelően visszafogott."
Magyarul igy van kialakítva.?Másik: teszt azt meg lol
"Annak érdekében, hogy megakadályozzuk a grafikus kártyák összeomlását a sugárterhelés alatt, aktiváljuk az upsampling funkciót a megfelelő minőségi módban."
Kiemelném :megakadályozzuk a grafikus kártyák összeomlásátMint itt megjegyezte valaki DLSS és társai kevesebb memo fogyasztást okoznak...
Tehát nativban bereccsen, DLSS/FSR segit rajta
De ez a két teszt khhhmm nem meggyőző[ Szerkesztve ]
-
veterán
válasz huskydog17 #46034 üzenetére
Itt valóban látszik hogy anomália vagy később javítottak valamit!
Engem ez az AMD így úgy nem érdekel... -
Devid_81
félisten
válasz huskydog17 #45569 üzenetére
Az ugy nez ki mint egy videokartya ott
Kb ennyit tudtunk meg rola elso korben.
Ezenkivul akkora mint 2 tegla es tenyleg csak 1 tapcsatija van, szoval meg siman akarmennyit is fogyaszthat ~600Wattig[ Szerkesztve ]
...
-
gainwardgs
veterán
-
bitblueduck
senior tag
válasz huskydog17 #45553 üzenetére
nemtudom kinek hol van a tűréshatára, nekem olyan videokártya nem szimpatikus aminek alaplapi PCIE + 600W-os csati nem elég. azelőtt soha nem volt bajom a hőtermeléssel, de a mostani 300W-os kártyám miatt számítógépházat kéne cserlénem, mert ha nem veszem le az oldalát akkor 105+ fok a hotspot, nyitva meg 95. azért ha valaki megdobna egy 4090-el duzzogva elfogadnám, és valahogy megoldanám . nektek mi férne bele egy 5090-nél, van valami határ?
An open mind is like a fortress with its gates unbarred and unguarded.
-
gaben22
senior tag
válasz huskydog17 #45553 üzenetére
"Kimigyerek" is pár hete már egyet mondott, előtte volt egy pletyka (lehet az is tőle?), hogy kettő is lehet akár. Amúgy ha emlékeztek a Galax 4090 HoF-on is kettő volt szóval nem lenne újdonság.
Eladó cuccok: Forza Audioworks - Copper Series IEM Mk2 IEM kábel
-
nagyúr
válasz huskydog17 #45553 üzenetére
"Kettő? Naivak vagytok b***meg - 3 lesz rajta!"
Bocs, nem bírtam kihagyni
"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
M@trixfan
addikt
válasz huskydog17 #45472 üzenetére
Értem, köszi, bár abszolút nem tartom logikusnak. Ha megvan a neurális háló tréning akkor nem látom mi akadálya van annak, hogy egy natív felbontásra downsampling történjen, vagy subpixel szinten legyen “felskálázás”.
twitter: MatrixfanLive | Ősidőktől a PH!-n
-
nagyúr
válasz huskydog17 #45256 üzenetére
A Blackwell-re a kereslet mind az NV mind a Foxconn szerint őrülten nagy.
... és ez btw. lényegesen nagyobb probléma lehet a játékosok számára, mint az, hogy az 5080-nak hurka az SM-konfigurációja.
"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
félisten
válasz huskydog17 #45252 üzenetére
"A new generative AI workflow has been shown to deliver an additional 2x speedup on top of the accelerated processes enabled through cuLitho."
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Abu85
HÁZIGAZDA
válasz huskydog17 #44764 üzenetére
Akkor pontokba szedve:
A lista azért fontos, mert te azt hiszed, hogy minden PhysX játék GPU-val gyorsít. Nem, ahhoz külön kód kell, és a listában szereplő játékok támogatják azt a kódot. Tehát ott van az a pár cím, amiben működik ez, minden más címben hasztalan a GPU-d PhysX-re, mert a CPU-n fut a kód mindenképpen.
Az NV-től régen kérdeztem, hogy egy ideje már nincs GPU-s PhysX, és hogy ez halott-e vagy valami. Nekem azt írták, hogy most az RTX-re megy a pénz, a GPU-s PhysX-et a 4-es verziótól kezdve átalakították professzionális szintre. Ez abban nyilvánul meg az NV szerint, hogy maga a szimuláció sokkal pontosabb, így ipari szintű modellezéshez is használható, viszont a pontosságnak az az ára, hogy 10-20x nagyobb az erőforrásigény. Tehát a PhysX 4-5 már nem optimális játékra, mert valójában a játékokban nincs szükség arra, hogy hihetetlenül pontos legyen a fizika modellezése. Kismértékű változást jelentene csak a kinézetet tekintve, miközben a számítások oldalán 3-4 VGA-ra van szükség hozzá. Nos, röviden ezért nincs GPU-s PhysX játék manapság.
A 3.4-es verzió megmaradt a régi, pontatlanabb fizikánál, azt begyorsították.
A Unity gyárilag négy fizikai motort támogat: PhysX, Havok, Unity Physics és Box2D. A PhysX verziója gyári szintű támogatás mellett valóban 4.1, de nem engedélyez GPU-s gyorsítást, pont amiatt, amiért az NV nem erőlteti ezt manapság. A 4.1-re azért tértek át, mert kedvezőbb a CPU-s kód sebessége az AVX optimalizációknak hála. A PhysX 5-öt viszont már nem is implementálták még kísérleti szinten sem, mert ott már a CPU-s kód is nagyon más, sokkal-sokkal több magot igényel a pontosság miatt. Ez ipari szinten, ahova fejlesztették oké, mert oda nem nehéz 64-magos Threadrippereket venni, de a gémereknek erre nincs pénzük. És az is számíthat, hogy a Unity inkább a Unity Physics fejlesztésére koncentrál, hiszen az gyári megoldás, és ez azért lényeges számukra, mert nem lesznek szopatva az olyan jellegű piacváltástól, amit a PhysX-szel csinált az NV. Ugyanígy az Unreal Engine is ezért fejleszti a saját megoldását, mert a PhysX irányával gaming szinten nem tudnak mit kezdeni.
GPU-s PhysX-re a 3.4 az utolsó, ami játékra is alkalmas, mert az még nem ipari szintű pontosságra van kialakítva. CPU-ból még elmegy a 4-es. Az 5-ös semmiképpen, mert az minden szempontból robotika szimulációra van írva. Az nagyon jó ipari szinten 4-8 GPU-s Threadripper rendszereken, de a gaming nem tud vele mit kezdeni, mert nincs meg a pontosság által megkövetelt teljesítmény egyetlen GPU-ban. Úgy meg pláne nincs, hogy a GPU közben egy rakás más dolgot csinál.
Azokat a részfeladatokat, amiket lehet gyorsítani GPU-val már rég alkalmazzák a játékok compute shaderben. Tehát különösebb haszna ezért sincs a GPU-s PhysX-nek már, mert az adott effektre írnak egy compute shadert és kész, fut mindenen.
Igen, a binárisokat odaadják ingyen, és ennek pont az a hátránya, hogy ha nem működik, és az esetek többségében nem fog, mert nem tud az NV minden egyes specifikus tényezőhöz alkalmazkodni, akkor mehetsz a supporthoz, hogy írják át neked a kódot, és fordítsanak neked olyan binárist, ami működik. Ezt megcsinálják, de erre licencszerződést kell kötni, mert az NV support nem fogja neked ingyen működővé tenni a kódot. Hülyék lennének, ha pénzt is adnak ezért az emberek.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz huskydog17 #44745 üzenetére
Ezek a játékok használnak GPU-val gyorsított PhysX-et:
Active Worlds / Alice: Madness Returns / Assassin's Creed IV: Black Flag / Batman: Arkham Asylum / Batman: Arkham City / Batman: Arkham Origins / Batman: Arkham Knight / Borderlands: The Pre-Sequel / Borderlands 2 / Bureau: XCOM Declassified / Call of Duty: Ghosts / Crazy Machines II / Cryostasis / Dark Void / Darkest of Days / Daylight / Fallout 4 / Hawken / Hot Dance Party / Hot Dance Party II / Killing Floor 2 / Lords of the Fallen / Mafia 2 / Metro 2033 / Metro 2033 Redux / Metro: Last Light / Metro: Last Light Redux / Mirror's Edge / Passion Leads Army / Rise of the Triad / Sacred 2: Fallen Angel / Sacred 2: Ice & Blood / Star Trek: D-A-C / Tom Clancy's Ghost Recon Advanced Warfighter 2 / Unreal Tournament 3 / Warface / Warmonger - Operation: Downtown Destruction
Még használt eredetileg a Warframe és a Planetside 2 is. A Warframe lecserélte egy sajátra, míg a Planetside 2 esetében licencproblémák voltak, és a Sony inkább kivette, hogy ne kelljen az NV-nek fizetnie.
Leginkább azért nem használnak ma már GPU-s PhysX-et, mert valójában sosem fizikáról volt szó, hanem grafikáról, és a compute shader kiváltotta ezt. Persze az sem segít, hogy az NV a rendszert nem fejleszti már a játékok szemszögéből. A 3.4-es volt az utolsó verzió, ami játékhoz készült. A 4-5 már nem igazán. A PhysX játékokhoz tervezett verziója 2018 óta gyakorlatilag vegetál. Nem tudni, hogy az NVIDIA valaha is újraindítja-e. Abból kiindulva, hogy már arra is figyelmeztették a fejlesztőket, hogy a PhysX runtime kikerülhet a GeForce driverből, így a GPU-s PhysX effektek a játékokban elszürkülnek majd, arra lehet következtetni, hogy nem jön vissza ez az irány. A karbantartási költségektől pedig 6-7 év vegetálás után valószínűleg megszabadulna a cég.
Valós fizika gyorsításra dedikált hardverből nehéz, mert sok a round trip. Ezért használnak erre a célra csak CPU-t. Azért sem túl célszerű már a dedikált hardver, mert annyi mag van a CPU-kban, mint a dinnyében, szóval skálázni elég jól lehet már.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
yarsley
aktív tag
válasz huskydog17 #44633 üzenetére
Rekordbevételeket értek el, erre zuhant a részvény árfolyam vagy 8%-ot
De azért félelmetes hogy 9x bevételük volt data center eladásokból gaminghez képest, ami tavaly ilyenkor még csak 4x volt...
... ne úgy képzeld el, hogy te vagy Thomas azt mész amerre a sin visz. (c) virkir
-
veterán
válasz huskydog17 #44571 üzenetére
Es Q3Arena ala kellett a maximalizalt 125 fps mert a mozgashoz kellett kulonben szivtal
-
D55
aktív tag
válasz huskydog17 #44569 üzenetére
Jogos, valahogy a mondatod első része felett elsiklottam
-
-=RelakS=-
veterán
válasz huskydog17 #44569 üzenetére
Voodoo 1 + Unreal és Sin, 512x384-re vissza kellett venni, mert nem bírta a gép Igaz, ez kb 98-99 volt.
Itt streamelek játékot időnként: https://www.twitch.tv/relaks__
-
D55
aktív tag
válasz huskydog17 #44562 üzenetére
"a Frame Gen parasztvakítás"
Annyira azért nem az, mondom úgy, hogy nekem a 60Hz/fps-től világ életemben kifolyt a szemem... Eleinte csak az FSR megoldás volt számomra elérhető még az előző 3060 Ti kártyámmal és az még valóban darabosnak érződött sokszor, viszont a natív DLSS FG meglepett, hogy ehhez képest mennyire dob tényleg érezhetően a "fluiditáson".
Persze egy multiplayer játékban semmiképp sem használnám az input lag miatt, de egy kevésbé reflex+aim orientált singleplayer esetén azért az sem olyan vészes szerintem, hogy zavaró volna ott.
-
-=RelakS=-
veterán
válasz huskydog17 #44562 üzenetére
Azt is hozzátehetted volna, hogy nem 1080p-ről beszélsz, hanem 800x600, 1024x768, ha meg volt pénz hardverre, akkor még 1280x1024 is szóba jöhetett
Itt streamelek játékot időnként: https://www.twitch.tv/relaks__
-
gainwardgs
veterán
válasz huskydog17 #44554 üzenetére
Szép új világ...
1080p 73 fps egy Rtx 4090-el...
Parasztvakítás frame gen-t már mindenbe bele kell erőltetni, az meg hogy nélküle nincs elfogadható fps, hát gyönyörű
Csak így tovább -
gejala
őstag
válasz huskydog17 #44507 üzenetére
Legalább így minden is moddolható lesz megjelenés percétől kezdve. Csak annyi lesz a kérdés, hogy melyik játékra gerjednek be a modderek.
-
félisten
válasz huskydog17 #44505 üzenetére
Nagyon bízok benne, hogy nem váltanak Unreal 5 re ezek után az érkező játékaikban. Most már ez a motor mindent is tud, remekül skálázható még a következő genenrációkra is a csúcsig és akár egy 5 éves kártyán is elketyeg.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
nagyúr
válasz huskydog17 #44495 üzenetére
Akkor fognak eltunni, amikor a vasarloik tobbsege nem ezt fogja varni. Vagyis kb. soha. Sajnos.
[ Szerkesztve ]
"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
KRoy19
őstag
válasz huskydog17 #44495 üzenetére
Nincs a filmes efektekkel baj, ha kikapcsolhatóvá teszik őket. De amikor nem lehet kikapcsolni azt a sok filmes fost, az bizony nekem is fel tudja nyomni a pumpát. Dof, chromatic aberration, botion blur és a többi szar.......
-
Teasüti
nagyúr
válasz huskydog17 #44490 üzenetére
Mondjuk az, hogy külön kiemelik egy PC portnál, hogy lesz lehetőség 16:9-es képaránnyal játszani, hát ez azért elég gáz, ez kb. olyan, mint azt reklámoznák, hogy hé lehet majd felbontást állítani benne.
Előzetes alapján itt inkább csak arról van szó, hogy a mozis élményre tervezték a játékot.
Természetesen a többség úgyis 16:9-es megjelenítőn fog játszani, viszont gondolom a fekete csíkokkal lenne hű az alkotói szándékhoz, mint a moziban. -
félisten
válasz huskydog17 #44490 üzenetére
Alakul, bár az űrcsatás részek még a Nintendo 64 re hajaznak.
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Quadgame94
őstag
válasz huskydog17 #44398 üzenetére
Miért is? Ez a kijelentésed ironikus módon pont, hogy elfogultságra (extrém szűk látókörűségre) utal. Szerintem ezt gondold át, főleg mert máris megcáfoltak téged
Azért mert nem tudok semmilyen más indokra gondolni csak erre. A 3060 sok esetben RX 6700 XT árban volt. Ami 30% gyorsabb. Itt semmi sem indokolja a 3060 vásárlást. Felőlem jöhetsz bármilyen feature-rel. 30% az hatalmas. Még az RX 6600 XT is gyorsabb volt és sokkal olcsóbb is. Totálisan érthetetlen miért vette valaki ezt a kártyát. És itt most nem arról a kis százalékról beszélek akinek a CUDA meg az NVENC elengedhetetlen. Az vásárlók 80 százaléka azt sem tudja mik ezek.
3060 Ti ugyan az a nóta. RX 6800 árban volt Hidd el nagyon sokat foglalkoztam az árakkal akkoriban.
De én nem vagyok elfogult egyik oldallal sem. Az RX 7700 XT egy vicc volt 200 felett. És sokakkal ellentétben az RX 7800 XT-t sem tartom valami jó kártyának. Sőt.
Ez a generáció (RTX 40 és RX 7000) talán a legroszabb. Mind a két gyártó nagyon rossz ár-értékű kártyákat adott ki. Nekem ez a fontos. Adott pénzért gyorsabbat kapni. 160 ezerért még ma sem kapnék jobbat mint egy éve. Jövő ilyenkor talán kapok érte egy 20%-al jobbat Hatalmas előre lépés lesz.
[ Szerkesztve ]
-
Quadgame94
őstag
válasz huskydog17 #44386 üzenetére
A 3060 Ti-on aztán hatalmas RT gaming megy Ja nem. Az, hogy valaki a 4080-at veszi teljesn érthető. Ugyanakkor aki 3060-at meg 3060 Ti-t vett az csakis elfogultságból vette. Mint ahogy pl aki RX 7700 XT-t vett az is egy eléggé rossz üzletet csinált.
-
félisten
válasz huskydog17 #44365 üzenetére
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Teasüti
nagyúr
válasz huskydog17 #44295 üzenetére
AV1 dekóder már volt a 30-asokon is. Az enkóder került bele a 40-esekbe.
Ha használsz videó felskálázást, akkor vígan elfűtenek 100+ wattot is. -
gV
őstag
válasz huskydog17 #44280 üzenetére
nem szokásom yt videokat úgy nézni. ám legyen, ez a video: [link] 4KHDR@60fps VP9: 80W, AV1: 100W. igaz, így van különbség. majd ha lesz AV1-es karim visszanézem mennyit csökkent vele a fogyi.
-
S_x96x_S
addikt
válasz huskydog17 #44291 üzenetére
> Igen, te máshogy értelmezed akkor a dolgokat.
A vita elkanyarodott A "Tökéletes" + "DLSS 3.7" értelmezésének mocsarába.
történet innen kezdődik : #44271
és olyan állításokkal, mint:
- "igazából jelenleg nincs olyan ficsőr ami ne menne régebbi RTX kártyákon."
- "RTX2000-res szérián is tökéletesen megy a DLSS 3.7."
- "viszont már a 3.7.10-es verziónál jár, ami szintén minden RTX kártyán működik."és aztán kiderült, hogy mást értesz a "tökéletes" alatt.
- " a DLSS 3.7 tökéletesen működik RTX 20-as széria alatt, kivéve a Frame Gen modult."De miért ne lehetne az nVidia a referencia a tökéletesre ?
"""
NVIDIA DLSS 3
Max FPS. Max Quality. Powered by AI.
DLSS is a revolutionary breakthrough in AI graphics that multiplies performance. Powered by the new fourth-gen Tensor Cores and Optical Flow Accelerator on GeForce RTX 40 Series GPUs, DLSS 3 uses AI to create additional frames and improve image quality.
"""Összefoglalva: A "tökéletesen" megy a DLSS 3.7 az RTX 20 -on?
Válasz:
Ez attól függ,
- hogy pontosan "mit" érünk DLSS 3.7 alatt.
- és hogyan definiáljuk az ISO "tökéletest".[ Szerkesztve ]
Mottó: "A verseny jó!"
-
S_x96x_S
addikt
válasz huskydog17 #44289 üzenetére
> Ez azt jelenti, hogy ha csak felskálázást akarsz használni,
> akkor igen, tökéletesen fog működni a 3.7 is az RTX 20-as kártyán,
> ahogy a DLAA és RR esetében is.rövidre zárva;
mást értünk DLSS 3.7 "tökéletes" alatt. ( pont )> A DLSS egy csomag, ami több modult tartalmaz, amit jól mutat a táblázat.
és ebből pár modult nem támogat az RTX 20 -alatt.
> am RTX 20-as szérián nem megy, az a Frame Gen modul.
vagyis szerinted "a Frame Gen modul" nélkül is tökéletes a DLSS 3.7
[ Szerkesztve ]
Mottó: "A verseny jó!"
-
S_x96x_S
addikt
válasz huskydog17 #44284 üzenetére
>>> ami viszont már a 3.7.10-es verziónál jár, ami szintén minden RTX kártyán működik.
>> Tőled is kérek erre egy forrást, ami nem FSR3 alapú mókolás!
> Öööhh, ok, remélem a hivatalos NV oldal megfelel.félreértjük egymást ..
az RTX generáció és DLSS generáció az KÉT különböző dolog!
és hol irják ott, hogy minden ( RTX 20 -al is ) működik az DLSS 3.7 ?
én csak ilyet látok.
"DLSS is a revolutionary breakthrough in AI graphics that multiplies performance. Powered by the new fourth-gen Tensor Cores and Optical Flow Accelerator on GeForce RTX 40 Series GPUs, DLSS 3 uses AI to create additional frames and improve image quality."Mottó: "A verseny jó!"
-
S_x96x_S
addikt
válasz huskydog17 #44275 üzenetére
> Az NVIDIA több marketing táblázatban
> a DLSS upscaling modulját (helytelenül) DLSS 2-nek írja,
> ami viszont már a 3.7.10-es verziónál jár, ami szintén minden RTX kártyán működik.Tőled is kérek erre egy forrást, ami nem FSR3 alapú mókolás!
Mottó: "A verseny jó!"
-
X2N
őstag
válasz huskydog17 #44275 üzenetére
"mind olyan DX9-es játékot támogat, amely fixed function graphics pipeline-t használ."
A probléma ezzel csak az hogy dx9-es játékok 99.9%-a nem ilyen[ Szerkesztve ]
-
félisten
válasz huskydog17 #44191 üzenetére
Igen erről volt szó már többször, kíváncsi leszek rá.
[link]
[link]
Durva amit a bemutató képeken mutatnak amúgy méretileg mekkora csökkenés érhető el vele.
Ha jól sejtem, ez nem csak gamingnál lesz érdekes, stúdió eszközökben is.
Azt mondja Kopite hogy az új Gen debütálásakor mutatkozik be , de nem tudja megmondani hogy kizárólag az 5000 széria kiváltsága lesz e.
Reddites- Nvidiás Unreal enginet használó fejlesztő szerint 8 GB Vrammal képesek voltak Microlagok nélkül a 4090 nel megegyező minőségű textúrákat futtatni és Ampere kártyát használtak, nem Ada-t tehát remélhetőleg nem lesz gond a kompatibilitással.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
KAMELOT
titán
válasz huskydog17 #44191 üzenetére
Ez érthető. Én is is 1 gent kihagytam most.
Nekem elég egy alapváltozat. Mindegyik ugyan annyit meg.
Venti hűtés úgyis a dobozban landol
Meglátjuk hol jó a support. Talán GIGA lesz.V1200 - 18CORE - SUPRIMX
-
KAMELOT
titán
válasz huskydog17 #44189 üzenetére
Launch után még meg kell várni az FC blokkokat, aztán nyomjuk a BUY gombot
3080Ti--->5090[ Szerkesztve ]
V1200 - 18CORE - SUPRIMX
-
gV
őstag
válasz huskydog17 #44182 üzenetére
a legjobb a PNY abból a szempontból, hogy idle/multi monitor/video közbeni fogyasztás FE-hez hasonló legyen. TPU-n akkor végre lesz KINGPIN kártyáról teszt? ha már partnerek velük illene. EVGA-s időkben sem értettem miért nincs róla sehol.
-
Busterftw
nagyúr
válasz huskydog17 #44182 üzenetére
Jó is a PNY, nekem is most az van.
-
veterán
válasz huskydog17 #44182 üzenetére
Ugyan en Kingpintol messze vagyok De start utani fel evben volt 5db 4090-em, hasamra utok de 100-150x dugogattam a csatit. 630w-os HOF biossal. Soha semmi problemam nem volt.
Nalam ez user error plusz ami lehet az a felrakott oldal lap fesziti a csatit ezennkivul nincs ossze dugva rendesen. -
félisten
válasz huskydog17 #43993 üzenetére
hol van az az idő, amikor az 576 KByte újságból vagdostam ki a végigjátszásokat, most csak megkérdezem az Ai-t aztán csá.
Amúgy nagyon kíváncsi leszek, hogy a DLSS 3.5 egyben ugródeszka lesz a 4.0 hoz, ami állítólag ősszel jön az új kártyacsaláddal együtt."A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
hahakocka
őstag
válasz huskydog17 #43979 üzenetére
Leírtam százszor már miket nézek s nem csak 1-2 kedvenc oldaladat hanem 10 félét s abból lesz egy átlag képzeld. S igen láttam sok videót ahol azt is mutatták hogy mik az árnyoldalai s nem, s nem AMD-s, hanem NV-s felhasználók voltak továbbra is s maradtak is azok ettől még. S nem nem én nem jósoltam meg semmit te voltál előbb Nostradamus. Annyit írtam hogy úgyis lesz majd még erősebb XES és FSR4.0 aztán mi lesz majd kiderül belőle pontosan: Azért mert 1-1 oldal egyszer rosszat mondott 10 éve kedvencedről még nem lesz ellenség.... Főleg ha azóta ez változott ezerrel.
Sokszor az 50 game-et tesztelő oldalakat (RT-DLSS-FSR off on al, 3 féle felbontáson, 3 féle textúrával, 2-3 féle fogyasztási helyzettel és ár-érték grafikonokkal, perf-per wattal) is nem függetlennek tartod , de a 10 game-el tesztelőket meg igen ez is érdekes meglátás. A részletesebb a rosszabb?[ Szerkesztve ]
-
hahakocka
őstag
válasz huskydog17 #43978 üzenetére
Mondtam már Face-n, hogy lehülyéztél mindenkit engem is amikor még nagy Inteles voltál hogy a 7700 s a 7800x3D ára még lejjebb mehet idővel nagyon jó lehet meg fogja érni, (A 2600x -emet és az RX 5700-as kártyámat is eléggé ledegradáltad akkoriban - Igaz Alan Wake 2 -n kívül mindent vitt elég szuperül FHD ban eddig, ami csak engem érdekelt s 5 éven át jó vétel volt így 100e ft ért, ár-értékben- ugye végig Inteles voltál, én meg előtte rendelkeztem Intellel, amúgy majd 5 évig i5 4690-em volt, de már kacérkodtam a váltással pár ok miatt. Aztán utána x3D t vettél mégis és ezerrel meg is voltál vele elégedve. Ugyanezt tetted amikor DDR5 öt mondtad hogy hülyeség meg se éri drága lesz még 2-3 évig, mikor levezettem hogy fél éven belül hogyan s kb mennyire fog esni hát pont úgy lett és voilá végül csak olyan procit is vettél ami fogadja s a ram árak is lejjebb mentek. Az hogy nem emlékszel rá sajnálatos. Nálam megmaradt mert meglepő pálfordulások voltak itt. Téma általam lezárva feledékenységet nem tudom gyógyítani. Ahogy a mondás tartja nem hiába a stílus maga az ember amúgy, nem hiába jó páran már jelezték ezt ahogy láttam. S megint látom alant is baromságokat írsz de már megszoktam. Csak ennek és csakis annak fogok én hinni örökre igaz ? Előre látsz mindent oh Nostradamus úr Látszott a DDR5 ram és AMD ellenességes időszakban amiről meséltem. Jelenleg vagyok natív hívő már jó sokszor elmondtam, hogy 1-2 éven belül ez persze változhat. Majd az új kártyával legyen bármi is ki fogom próbálni amúgy. Amiket írtam nem én írtam, hanem sok-sok RTX 3000-4000 es használó ők mind vakok biztos! Volt aki azt is írta hogy átváltott Intelre vagy AMD re mert egyszerűen nem érte meg ez a számára kis differencia, a nagy ártöbbletet s a vram többlet is fontosabb volt számára. S ez nem egy emberke , ismerős ismerőse sokan vannak így.
[ Szerkesztve ]
-
félisten
válasz huskydog17 #43979 üzenetére
Kár rá pazarolnod az értékes idődet és energiádat, Radeon kártyája van, még nem próbálta a játékokat DLSS-sel, nem is értem hogy miért vitatkozik így.
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
hahakocka
őstag
válasz huskydog17 #43957 üzenetére
Szerintem nálad van úgy, hogy hibákat nem nézed sehol ha NV. Pedig a kettő együtt ad teljes képet. S játékfüggő de korábban azt állították hogy mindig tökéletes akkor most mégse? S nem nem én vagyok az egyetlen hidd azt hogy én láttam csak .Nagyon sok DLSS használó írt erről vagy készített videókat. Sok játékban amúgy amit NV re optimalizáltak ott szinte semmi gond nincs tényleg. Az igazság mindig középtájt van . Amikor vga-t veszek mérlegelek mindig hogy mi a jó és a rossz elem. Volt 4 NV m 4 AMD 3-4 évig. Az éremnek mindig két oldala van. DLSS és FSR se mindig tökéletes ennyi.
[ Szerkesztve ]
-
hahakocka
őstag
válasz huskydog17 #43946 üzenetére
RTX kártya (S AMD -s) használók írják nem én Tele van youtube is ezekkel pl főleg FPS gameknél látható hogy blur-ol kb az enemy messze. A Raszternél meg simán látod s könnyen lelövöd. Értem a felskálázást meg a kimeneti emelt felbontást, de az 1080p monitorod sose lesz 1440p vagy nagyobb persze picit élesebb lehet majd, de ennyi. De össze nem hasonlítható. Én akkor már 1440p-4K natívba tolom 4K HDR el együtt majd, 4K ba viszont megéri a DLSS-FSR mert ott nem ront annyit . Eleve igazából 4K ra találták ki, oda kell is sajnos egyes gameknél. A t9bbinél is persze jó és fontos de több a ghosting és alacsonyabb felbontásról akár ugye 480-720p megy fel. 4K ra fogok váltani majd tehát. (4K Filmek miatt is) Ott majd használom néha az tuti. Már csak, hogy leteszteljem magam is. S a Fake frame-ek se mindig tökéletesek.
[link]
"It appears that no sharpening gets applied when DLSS is turned on, resulting in an extremely blurry image. Below is a comparison between native 4k and DLSS Quality, to demonstrate my point:"[ Szerkesztve ]
-
Raymond
félisten
válasz huskydog17 #43950 üzenetére
Ahhoz meg orajel kene hogy azt a +60% compute-ot behozza es nem latom hogy jelentosen 3Ghz fole menne egyalatalan nemhogy az ahhoz szukseges tobb mint 4Ghz-et megkozelitene.
[ Szerkesztve ]
Privat velemeny - keretik nem megkovezni...
-
Anax
tag
válasz huskydog17 #43946 üzenetére
"Igen, ez valóban érdekes, pedig erre már megvan a válasz, RDNA3 kb. 700 Wattot zabál, ha meg akarod közelíteni a 4090 tempóját. "
Ez nem lenne igaz egy 4080 -ra is, hogy többet fogyasztana a 4090 nél, ha meg akarod vele közelíteni?
[ Szerkesztve ]
-
t72killer
titán
válasz huskydog17 #43912 üzenetére
"úgy tűnik az alaptalan félelem nagy úr." - nagy. A mindenféle hiedelmek hihetetlen módon képesek manipulálni a komplett piacot. Használtpiacon obszcén árakon megy a 3080/Ti/3090/Ti széria, annyiért veszik ezeket, amennyiért majdnemhogy garis új 4070xx megfelelőt találsz a boltban.
30€ Meta store bónusz Quest headset aktiváláshoz, keress priviben :)
-
Busterftw
nagyúr
válasz huskydog17 #43912 üzenetére
De latod azon sem elmelkedik, hogy egy 4090 teljesitmenyu RDNA3 vajon mennyit fogyasztana es mekkora hutes kellene ala.
Vagy ha mar kovetkezo generacio, egy 5090 teljesitmenyu RDNA4 mennyit fogyasztana.Valamiert ezek nincsenek bebofogve minden heten.
-
hahakocka
őstag
válasz huskydog17 #43890 üzenetére
Köszi, igen hát ez alapján inkább akkor a Szeptember lesz a fő esélyes tényleg. AMD nél is kb . Elvileg október-november fele jöhetnek a kártyák mindkét cégnél. Majd kiderül persze.
-
hahakocka
őstag
válasz huskydog17 #43784 üzenetére
Tapsoljuk meg a szar optimalizálást? Szuper! 2024 ben 1080p-n nem megy egy középkateges vga-n, (Előző gen vga-val) 720p ről skálázás nélkül játszhatóan medium-highon azért szerintem az gáz. A Cyberpunk is jobban ment még nálam is, pedig az se az optimalizáció királya, 3 év után persze javítottak rajta azért. S szép az Alan Wake 2, de kisebb terekre korlátozódik is emellett. Nem egy Witcher 3 open world s egyben csodaszép grafika van benne vagy egy Crysis szerű ugrás azért. De tény hogy jól néz ki. Most már az 1440p s néhol már a 4K megy de az 1440p az átlag , s 1- gamenél viszont lassan visszatérünk a 720p korszakába, a felskálázás kapcsán legalábbis? Starfield is egy röhej volt mert az még nem volt valami szép se.
[ Szerkesztve ]
-
S_x96x_S
addikt
válasz huskydog17 #43777 üzenetére
azért én egy minimális esélyt adok ..
> Ezen felül az is kizárja a 6.0-t, hogy konzumer vonalon
> nem létezik olyan platform (CPU+alaplap), ami támogatja.A Blackwell megjelenéséig ( ~ 2024 év vége ) még van idő,
hogy az új consumer alaplapok megjelenjenek,
de ha 2025Q1 -ben jönnek ki az új alaplapok még az is elég.Azért vannak gyanús jelek:
- Az AMD hamarosan kiadja az új ZEN5-ös procikat, de az AM5 -ös új chipsetes alaplapokról még semmi hír .. vagyis késnek.
És vannak jelek amelyek a technikai problémákat vetítik előre.pl. az extra melegedés ..
szerencsére az Intel dolgozik a PCIe Gen6 thermal throttling problémán.
Ha túlmelegszik, akkor x16 -ból visszavesz x8 vagy x4 -re, vagy a link sebességet csökkenti ..
"The driver's near-term function for PCIe 5.0 is to mitigate thermal issues by reducing PCIe link speeds to keep temperatures in check — this means the bus itself will downshift from its standard 16 GHz frequency to slower speeds to keep heat in the safe zone. This feature ensures the devices can maintain optimal temperatures even under high loads. While the current focus is on controlling the link speed, plans are underway to extend the functionality to manage PCIe link widths (i.e., the number of active PCIe links), which the PCIe 6.0 specification will enable. For instance, a PCIe x16 device could shift down to a x8 or x4 connection to control thermals." ( via TomsHW )Ettől függetlenül high end WorkStation -nél ( TR, Xeon)
nagyobb lehet a megjelenés valószínűsége.Mottó: "A verseny jó!"
-
hahakocka
őstag
válasz huskydog17 #43774 üzenetére
A jó sebességhez volt kötelező használni az FSR-t és DLSS-t, tudom mert ismerősöm is használta 6700xt n, arra 'optimalizálták' ezt a 2 gamet, (még véletlenül se ment jól eleinte natívon sok-sok féle akár erősebb kártyán) és én is bár nekem 5700 assal kötelező is volt amúgy tényleg nem engedte máshogy kezdetkor Alan Wake 2 és a Starfield. Lehet azóta patchelték nem tudom de az én kártyám már nem mérvadó. Amúgy a gáz az volt, amikor kijött a Vulkan Fan patch az Alan Wake 2 -höz, amivel 1070-1080 al és 5700 al is már egész jól ment a game a megjelenéskori alap verzióhoz képest.
Azt tudom, hogy ha várnak az emberek olcsóbban tudnak vásárolni vga-t, procit, jó eséllyel Én is szoktam néha pl így veszek majd olcsóbban újabb genes Ryzent is. A 2600x- em már elég öreg. De itt arról volt szó hogy ha előre tudták volna hogy lesz 4070 super meg super-TI lehet kivárnak arra a pár hónapra és azt veszik nem a simát. Sok ismerősömnél is volt olyan, hogy ő vette volna az erősebbet de hát előre nem tudhatta hogy a 7800xt-7900-7900xt jó ár értéke vram többlete, s egész jó kereslete (AMD szinten mérve) miatt kijönnek erősebb 4070 esek is. Mint annó az 5700 asoknál korábban a superekkel. Itt is hasonló történt csak. Amúgy az 5700 asoknál is, közép és felső alja kateg. volt csak kb , most akkor a 8000 eseknél is ez lesz kb. Megismétlődik. De az nagy siker volt akkoriban. Kérdés most mi lesz majd. Most már azt olvasni, hogy csak 5080 jön ki először ősszel. Mindig más hírek vannak. Csak 5090, mindkettő vagy csak 5080.[ Szerkesztve ]
-
hahakocka
őstag
válasz huskydog17 #43692 üzenetére
Starfieldben és Alan Wake 2 ben erősen kötelező volt a DLSS-FSR használata eleinte, nem tudom azóta patchekben javult e az optimalizáció.
Most már van Super TI és 50-es végű AMD is XT mellé. Emellett sokan azt mondtam hogy megveszik pl az alap 4070 et aztán váltanak Superre amikor kiderül hogy jön, (Tehát kétszer kell vásároljanak de ha tudnák előre vajon akkor is 2 szer tennék?) az nem azonnal jött ugyanúgy mint az RX 5700 asoknál a Superek, azok is válaszok voltak főleg, mert kellett hogy jobb értéke legyen. Itt is 4070 super jobb választás most már mint egy sima 4070. De ha ezt előre tudják a 4070 vásárlók lehet kivárják.
Ahogy eddig is az sajna több lesz az MSPR ár, ÁFA nélküli és emellett mindig nagyobb a kezdőár. Mindegyik oldalon.[ Szerkesztve ]
-
bobalazs
nagyúr
válasz huskydog17 #43692 üzenetére
Egy példát tudok. Cyberpunk ultra beállítás fsr on.
-
hahakocka
őstag
válasz huskydog17 #43672 üzenetére
Tudom mondtam sok átnevezés volt régen mindkét oldalon. De most 3 gen óta folyamat ez van (S aki megveszi a sima 4070 et pl lehet szeretett volna már Supert vagy Ti-t vneni, de előre nem tudott róla) meg vram spórolás, meg hogy DLSS el, FSR-el toljad, s nem is a kártya a lényeg már kb lassan. Már lassan minden game-re kötelező is azzal tolni alapból be van kapcsolva. Azért ez gáz szerintem ma már. Veszel egy új GPU-t aztán csak 'segéd software'-el megy rendesen. Azért a plusz pár effektért ami hol jobban néz ki 1-1 game-ben, hol nem nagy szám.
-
félisten
válasz huskydog17 #43669 üzenetére
sőt még olyan is volt hogy egy kártyacsaládon belül eltérő architektúrát alkalmaztak GTX 750Ti Maxwell/ Kepler.
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
hahakocka
őstag
válasz huskydog17 #43669 üzenetére
Igen emlékszem annyi átnevezés volt akkor is, de 1 genig volt utána ált eltűnt. Amit soroltál az is 1,5 gen. Most meg már amióta van super meg Ti, meg XT meg XTX meg 50 végződés ezerrel tolják sajnos mindkét nagy gyártó 3 gen óta. Intel még szerencsére nem tette ezt. De ne szóljuk el .
-
gV
őstag
válasz huskydog17 #43636 üzenetére
hmm.. most a 3.7-et használom, de igazából anno 1.0-val sem tűnt fel ez. ami egy időben zavart, a repülő dolgoknak volt hasonló utánhuzásuk mint amit a DF mutogatott itt [link]
-
M@trixfan
addikt
válasz huskydog17 #43624 üzenetére
Értelek. Én úgy tudtam a DLSS támogatáshoz 16K felbontású referencia offline renderhez tréningezik a neuronhálót. Lényegében a DLAA egy subpixel szintre alkalmazott “felskálázás”. Szerintem ezért zseniális mert subpixel szinten a neuronhálós modell hibái kvázi nem számítanak, cserébe MSAA, vagy downsampling szintű élsimitást kapunk minimális erőforrásból. A DLDSR-t nem ismerem, utánanézek.
twitter: MatrixfanLive | Ősidőktől a PH!-n
-
M@trixfan
addikt
válasz huskydog17 #43621 üzenetére
Ha egy játékhoz van DLSS támogatás akkor automatikusan van DLAA is? Annak idején nagyon felkaptam a fejem a DLAA-ra mint egy natív felbontáson dolgozó igazi supersampling alternatívára minimális teljesítményért cserébe.
twitter: MatrixfanLive | Ősidőktől a PH!-n
-
félisten
válasz huskydog17 #43603 üzenetére
Kopite ennyit kommentelt a hírhez:
Érdekes lesz akkor a helyzet az idén.
bennem felmerült az hogy ha valóban sikerül az RDNA 4 és olcsóbban hoz 7900Xt-XTX sebességet akkor Nvidia árat vág az Ada-n és tud fölé jönni az 5080 és az 5090.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
veterán
válasz huskydog17 #43603 üzenetére
Meg sem fordult a fejembe
-
nagyúr
válasz huskydog17 #43544 üzenetére
Az ASUS dual normális helyen 135-137, induláskor 132 volt...
"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
Mans20
addikt
válasz huskydog17 #43544 üzenetére
Még mindig drága, max 90- 100-nak kellene lennie.
-
Raymond
félisten
válasz huskydog17 #43466 üzenetére
Lattam en is, de erre majd visszaterunk augusztus 21-en
Privat velemeny - keretik nem megkovezni...
-
Raymond
félisten
válasz huskydog17 #43460 üzenetére
A Black Myth: Wukong mar minden technologiat megkap ami letezik csak maga a jatek nem akar ideerni
Privat velemeny - keretik nem megkovezni...
-
lenox
veterán
válasz huskydog17 #43202 üzenetére
Mint a legjobb, PCI-E kábel nélküli dVGA, idorol-idore. Valoban az A4000 Ada SFF-rol elfelejtkezdtem, azt odaadtam egy kollegamnak, abban dupla nvenc is van 70 wattbol.
Az a2000-et viszonylag sokan veszik mostanaban konzumer pc-be is, a 6 GB-ost $250-ert meg lehet kapni ebayen.[ Szerkesztve ]
-
nagyúr
válasz huskydog17 #43204 üzenetére
Az pont kiderül belőle, hogy mit tudnak belőle kihozni - itt egy rövid teszt is.
Innentől kezdve csak az a kérdés, hogy kiadják-e konzumer kártyaként vagy nem, a tudása adott, némi (alacsony) bizonytalansággal a pontos paraméterezés terén.[ Szerkesztve ]
"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.