-
IT café
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
S_x96x_S
addikt
válasz
Hellwhatever #44997 üzenetére
> Kopite szerint lesz 1.1x-es gyorsulás, ott van valahol a közepén.
pontosabban: "a videocardz szerint" - Kopite ezt kommunikálta nekik - privátin;
mivel tweet -nem volt erre.de szerintem ez egy félreértés lehet;
a 10% inkább a 4080->5080 -ra illik rá,
Legalábbis a Kopite által kommunikált
számok alapján nekem nem jön ki a 4090+10% matekGeForce RTX 5080
PG144/147-SKU45
GB203-400-A1
10752FP32
256-bit GDDR7 16G
400W
https://x.com/kopite7kimi/status/1839345147789934794Maximum az 5080 RT teljesítményt értette a 4090+10% -alatt.
Vagy van olyan teljesítménynövelő dolog, ami még nem ismert.De amúgy a bejelentéskor úgyis kiderülnek a végleges számok.
EDIT:
> a 4080 is hoz plusz ~30%-ot a 3090-hez képest
> közben ~30%-kal kisebb sávszélességgel gazdálkodik.De most nem várható akkora gyártástechnológiai ugrás
mint az RTX30("Samsung 8LPU" ) ---> RTX40("TMSC 4N") között.
az RTX50 "TMSC 4NP" lesz.
( legalábbis az nvidia ezt kommunikálta a Blackwell-re )"Blackwell-architecture GPUs pack 208 billion transistors and are manufactured using a custom-built TSMC 4NP process. All Blackwell products feature two reticle-limited dies connected by a 10 terabytes per second (TB/s) chip-to-chip interconnect in a unified single GPU." ( nVidia )
[ Szerkesztve ]
Mottó: "A verseny jó!"
-
gainwardgs
veterán
válasz
Quadgame94 #44990 üzenetére
5080
ez inkább 5060Ti
-
Hellwhatever
aktív tag
válasz
S_x96x_S #44994 üzenetére
Kopite szerint lesz 1.1x-es gyorsulás, ott van valahol a közepén.
A memória sávszélesség önmagában nem túl beszédes a végleges tempóra nézve, a 4080 is hoz plusz ~30%-ot a 3090-hez képest közben ~30%-kal kisebb sávszélességgel gazdálkodik.
Nagy kérdőjel még hogy mennyin fog ketyegni a GPU az 5080-on, erről viszont nem nagyon láttam infót eddig sehol. Valószínűnek tartom hogy ez lesz a döntő tényező ebben a genben, nem hiába lett kitolva a TDP mindenhol.
[ Szerkesztve ]
9800X3D | ASRock X670E Steel Legend | Corsair 32GB DDR5 6000MHz CL30 | Gigabyte RTX 4070S WINDFORCE OC
-
S_x96x_S
addikt
válasz
KRoy19 #44995 üzenetére
> Azért ennél egy kicsit több összetevős a dolog.
persze,
de én nem látom mitől lenne gyorsabb az 5080 a 4090 -től .
hevenyészett táblázat:------------------------------------------------
4080 | 4090 | 5080
SMs : 76 | 128 | 84
Shading unit: 9728 | 16384 | 10752
MBandwith(Gb/s): 717 | 1010 | 896Persze lehet, hogy az RT teljesítmény tényleg gyorsabb
meg fejlettebb AI egysége van ;Mindenesetre én nem látom, hogy mitől lenne gyorsabb az 5080 a 4090 -től.
[ Szerkesztve ]
Mottó: "A verseny jó!"
-
S_x96x_S
addikt
válasz
Hellwhatever #44991 üzenetére
> Eddigi pletykák szerint ~10%-kal lesz gyorsabb az 5080 a 4090-hez képest.
Nem 10-20%-al lassabb ?? Vagy te hogyan számoltad??
5080: Bandwidth: 896 Gb/s ( 256bit GDD7 -ből kalkulált érték - via videocardz táblázat )
4090 : Bandwidth: 1.01 TB/sMottó: "A verseny jó!"
-
Hellwhatever
aktív tag
9800X3D | ASRock X670E Steel Legend | Corsair 32GB DDR5 6000MHz CL30 | Gigabyte RTX 4070S WINDFORCE OC
-
X2N
őstag
válasz
Hellwhatever #44991 üzenetére
Milyen felbontáson?
-
Hellwhatever
aktív tag
válasz
Quadgame94 #44990 üzenetére
Eddigi pletykák szerint ~10%-kal lesz gyorsabb az 5080 a 4090-hez képest.
9800X3D | ASRock X670E Steel Legend | Corsair 32GB DDR5 6000MHz CL30 | Gigabyte RTX 4070S WINDFORCE OC
-
Quadgame94
őstag
Egyébként ez a 84 SM mire amit most pletykálnak az 5080-on vagyis a GB203-on mit jelent majd egy 4090 ellen? Persze más architektúra és valszeg az órajel is emelkedni fog, de kétlem, hogy az 5080 hozza majd a 4090-et.
-
válasz
-=RelakS=- #44984 üzenetére
Kérdés mit ad és mennyiért. Várjuk meg a bejelntést szerintem , mielött pálcát törünk. KB 100 féle verzió szokott jönni a végső megjelenásig pletyka szinten.
A Vram nem minden és 16 GB nagyon gyors DDR7 ram mellé ott van jó nagy L2 is azért egy darabig nem limitál, kérdés minek a spefikációja ez és mennyiért.
Szóval azért jobb kivárni a végét a dolognak.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
X2N
őstag
válasz
-=RelakS=- #44984 üzenetére
Eddig is ez volt, most az 5080-asból csinálnak majd "60" Ti/Super kaliberű kártyát. 4080-asnak is igazából 70-esnek kellett volna lennie, most tovább butítják. Akkora szakadék lesz a 5080 és az 5090 között hogy nem éri meg majd megvenni az 5080-ast addig amíg el nem fogy a 40-es széria, aztán majd jön a rendbe rakott refresh GDDR7-el...
-
KRoy19
őstag
válasz
TESCO-Zsömle #44981 üzenetére
Ja tényleg, azt nem is figyeltem. Biztos odaadta neki, mert fázott.
-
What?!?!
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
válasz
Devid_81 #44973 üzenetére
Lesz ebből 5080 Ti
Én nem bánnám, ha kétféle vrammal szerelt változat lenne amúgy, ha árban lenne köztük értékelhető különbség.Viszont az Ampere szériánál is az Nvidia megengedte az AIB partnereknek, hogy használjanak többféle memóra konfigurációt, -lehetett volna 3080 20 GB ,-de nem lett belőle semmi, nem volt elérhető memória modul.
A GDDR7 3 GB tömeggyártása 2025 H1 ben fut fel. Ez azt jeleni, hogy vagy lesz Super széria, vagy lesz 5080 16 G ,5080 Ti 24 G,5080 Super 24 G, 5090 32 G 5090 Ti 48 G vagy 5090 Super 48G..
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Devid_81
félisten
-
hokuszpk
nagyúr
"Az NV és az AMD is mindig a gyártástechnek köszönheti a fejlődés nagy részét."
oke, de lassuk be, hogy az Intel is. A 13xxx/14xxx -ben bennevan a power, de ez TSMC technologian azert a perf/watt megiscsak ~fele lenne.
*** de mindjart jon az Arrow aztan meglassuk.[ Szerkesztve ]
Első AMD-m - a 65-ös - a seregben volt...
-
paprobert
őstag
TESCO-Zsömle, gbors, b.,
Köszi a pontosítást.#44966 fLeSs
"Az NV és az AMD is mindig a gyártástechnek köszönheti a fejlődés nagy részét."
A Maxwell-lel volt példa olyan generációs gyorsulásra, hogy a gyártástechnológiai stagnálás ellenére minden elvárhatóan fejlődött.
Ettől függetlenül igazad van, valószínűleg most nem lehet arra számítani, hogy majd Taiwan fogja a hátán cipelni a terméket.[ Szerkesztve ]
640 KB mindenre elég. - Steve Jobs
-
Raymond
félisten
"Btw a 4090-ről is 600W-os pletykák voltak megjelenés előtt és végül 450W lett."
Raadasul ugy hogy lehetett volna 400W is teljesitmenyvesztes nelkul vagy 360W ugy hogy kb. 5%-al lassabb. Meg igy is boven az osszes tobbi kartya felett lett volna a sebessege. A skalazodasa igy nez ki:
PL Perf
---------
100 100%
95 100%
90 99%
85 97%
80 95%
75 93%
70 91%
65 88%
60 82%Privat velemeny - keretik nem megkovezni...
-
Devid_81
félisten
...
-
Én azt gondolom ,hogy itt szinte biztos lesz 5080 Ti 20 GB verzió. Én abban látom a rációt, hogy Nv most lejjebb lövi az 5080 árát eleve hogy felkészüljön az AMD "beharangozott" olcsóságára.
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
fLeSs
nagyúr
Az NV és az AMD is mindig a gyártástechnek köszönheti a fejlődés nagy részét.
Az Ada TSMC 4N-nel készül, ami egy finomított TSMC 5 nm-es gyártástech, csak az NV részére.
A Blackwell TSMC 4NP-n fog készülni (nem N4P), ami még mindig egy finomított TSMC 5 nm-es gyártástech.
Nem tudjuk biztosra (legalábbis én nem), hogy ez mennyivel jobb tranzisztorsűrűségben, fogyasztásban, órajelekben, de lényegében azonos gyártástech mellett nem érdemes csodát várni.
Ez a Blackwell egy enyhén gyorsított Ada lesz elvileg, biztos nem lesz olyan nagy előrelépés mint az Ampere->Ada volt (Samsung 8nm->TSMC 5nm).
Btw a 4090-ről is 600W-os pletykák voltak megjelenés előtt és végül 450W lett.[ Szerkesztve ]
"Consider if you change your perspective about life, you have changed your experience of life."
-
hokuszpk
nagyúr
-
-
válasz
paprobert #44956 üzenetére
Itt regebben mar utanaszamoltam.[link]
De az 5090 sem teljes gpu.
Erdemes lesz megvarni mit tartogat az Nvidia azert.
Ha jol olvastam az AMD nel is a csucs RDNA4 kivul nem lesz 16 giga folott kartyajuk.Az árazás lesz a kérdés.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
válasz
paprobert #44956 üzenetére
Hát, ez elég sokat mozgolódott, ahogy az NVIDIA próbálja egyre feljebb pozícionálni az olcsóbb chipeket. Ha egyszer lenyeltük, hogy az xx80-as kártya a 104-es chippel jön (GTX 680 generáció), akkor onnantól kezdve az xx60-as kártya tudása valahol az xx80 (és nem a csúcskártya) 40%-a és 2/3-a között mozgott, egészen a 4060-ig, ami egy glorified 4050. A csúcskártya pedig eddig jellemzően 40-60%-kal volt az xx80 felett. A csúcskártya fele kb. az xx70 szokott lenni, szóval ha az 5080 tényleg ezekkel a specekkel jön, akkor azt fogjuk látni, amit az előző generációban a 4060-nal, az xx80 is lecsúszik egy osztállyal.
Vegyétek, vigyétek!"Piroska és Berci, a farkas / Századunk hősei most."
-
TESCO-Zsömle
félisten
válasz
paprobert #44956 üzenetére
Nem akarlak kiábrándítani, de még a TITAN RTX idejében is a 2070-es volt az, ami GPU-ban a felét tartalmazta a csúcs csipnek. RTX40 vonalon a 4060-as konkrétan negyede a 4090-nek. De tény, a leírtak alapján ez egy 5070-es, viszont abból inkább a Ti Super.
[ Szerkesztve ]
Sub-Dungeoneer lvl -57
-
paprobert
őstag
"Ha tényleg ilyen hurka lesz az 5080 configja"
Ha az emlékem nem csal, történelmileg a csúcskártya 50%-át tudó konfiguráció a generációkban általában a **60-as kártyát takarta...
Nekem ez egy kissé buszszélesített, overclockolt 5060-nak néz ki.
Félve merem csak kimondani, de ez alapján arra készül az NV, hogy 5080-nak adja el az 5060-at.
[ Szerkesztve ]
640 KB mindenre elég. - Steve Jobs
-
[NVIDIA GeForce RTX 5090 to PCIe 5.0 interface, DisplayPort 2.1a UHBR20, and a Single 12X-2×6 Power Connector]
Az első gaming kártya lesz teljes értékű DP 2.1 porttal."A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
-
bertapet11
tag
ezt a 600W-ot már láttuk egyszer, aztán mégsem lett annyi:
https://x.com/kopite7kimi/status/1523881148732313600 -
válasz
S_x96x_S #44944 üzenetére
Ezek nem adódnak össze, (közel) 10% teljesítménynövekedésed akkor lesz, ha minden (független) kapacitást 10%-kal megemelsz. Ami összeadódik ezekkel, azok az architektúrás javítások, valamint az órajel.
Ha tényleg ilyen hurka lesz az 5080 configja, akkor lehet, hogy valami komolyabb órajel-emelésre készülnek (anno a Pascal is elég vékonynak tűnt, aztán mekkorát szólt) - valamire csak elmegy az a +25% TDP..."Piroska és Berci, a farkas / Századunk hősei most."
-
FLATRONW
őstag
válasz
-=RelakS=- #44942 üzenetére
Azért itt is látszik, hogy teljesítmény/fogyasztás terén mennyire belefutottak a késbe a Samsunggal, mennyire visszafogta őket a 8nm.
Most hogy nincsenek ilyen gondjaik, ki is jött a különbség a konkurenciával szemben, így megengedhetik az ilyen húzásokat.
Ettől függetlenül én sem hiszem, hogy ekkora különbség lesz a két GPU között. -
S_x96x_S
addikt
> Ezzel együtt az 5080-as pletyka elég viccesen néz ki
Talán a Kínai piaci embargó miatt nem erősebb,
Az RTX 5080 -as teljesítménye nem mehet a 4090D - felé,
sőt meg se közelítheti, hogy legyen tér az 5090D-nek.Persze egy "RTX 4080 Super" mellett meg még furcsább az új 5080 pletykált konfigja.
Mottó: "A verseny jó!"
-
yagami01
aktív tag
válasz
S_x96x_S #44944 üzenetére
Nem csak az AI-ra lenne jó persze, van sok más amihez szintén jól jön a teljesítmény.
Viszont Kopite azt írja, hogy a 600W ellenére még mindig áll, hogy 2 slotosak lesznek a hűtők. Pedig én azok közé tartozok, akiknek tetszettek a 4xxx bitang hűtői. Na meg amúgy is, ha ez igaz, kíváncsi leszek a hőfokokra vagy, hogy ezt hogyan oldják meg...
-
S_x96x_S
addikt
válasz
yarsley #44940 üzenetére
RTX4080 -> RTX 5080 - között
akkor - nem lesz valami egetverő teljesítmény növekedés :
SMs: 76 -> 84
CUDA: 9728 -> 10752
MBandwith: 717 Gb/s -> 784 Gb/s
( az értékek a videocardz-os táblázatból )
Persze a sok - kis ~10% - akár össze is adódhat 20-30% -ra is.
Ami ismeretlen nekem, az a várhatóan PCIe Gen5 - által okozott teljesítmény növekedés, ami a szorosabb latency követelmények miatt talán kimérhető majd.Az RTX 5090 32GB-s verzióra meg ráugranak a Homeoffice-os AI fejlesztők.
A Tinygrad -nak már van "6x 4090" és "8x 4090" -es konfigja is,
és gondolom ebből is csinálnak majd valami hasonlót.
Úgyhogy az RTX 5090 32GB -t első körben hamar el fogják kapkodni, hogyha túl olcsón adnák .. de gondolom annyira nem fogják túl olcsón adni.[ Szerkesztve ]
Mottó: "A verseny jó!"
-
válasz
-=RelakS=- #44942 üzenetére
A 3080 / 3090 nem igazán jó összevetés, mert ott kényszerből tornászták feljebb a 3080-at, sejtették, hogy a 104-es chip kevés lesz az AMD hasonló kategóriájú kártyája ellen.
Ezzel együtt az 5080-as pletyka elég viccesen néz ki, én azért mérget nem vennék rá."Piroska és Berci, a farkas / Századunk hősei most."
-
yarsley
aktív tag
-
-=RelakS=-
veterán
válasz
Amazing789 #44937 üzenetére
Ugye nem használtál CRU-t? (Custom Resolution Utility)
Itt streamelek játékot időnként: https://www.twitch.tv/relaks__
-
Busterftw
nagyúr
válasz
Amazing789 #44937 üzenetére
Elso korben DDU-val pucold le a drivert, aztan tedd ujra.
-
bobalazs
nagyúr
According to a SemiAnalysis report, a mismatch in the coefficient of thermal expansion (CTE) of Blackwell chiplets and packaging materials caused the failure.
Nvidia's B100 and B200 GPUs are the first to use TSMC's CoWoS-L packaging, which links chiplets using passive local silicon interconnect (LSI) bridges integrated into a redistribution layer (RDL) interposer. The precise placement of these bridges is crucial, but a mismatch in CTE between the chiplets, bridges, organic interposer, and substrate causes warping and system failure. Nvidia reportedly had to redesign the GPU's top metal layers to improve yields but did not disclose details, only mentioning new masks. The company clarified that no functional changes were made to the Blackwell silicon, focusing solely on yield improvements. -
Abu85
HÁZIGAZDA
válasz
Hellwhatever #44930 üzenetére
Ne törődj vele. A 850 watt sem volt pontos ajánlás.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Hellwhatever
aktív tag
Ez lemaradt az előzőből: ...mint fél évvel is alig kapni értelmes...
Néztem én is, úgy voltam vele ha másért nem is talán a finomított csatlakozó miatt biztosabb lesz a 3.1 s butítás ellenére is.
Külön poén az hogy tavaly volt nálam egy 1200W-os FSP Fortron Hydro PTM PRO csak mire megjött és összeraktam a gépet pont másnap jelentették be a 3.1-et úgyhogy ment is vissza szegény még melegében.
9800X3D | ASRock X670E Steel Legend | Corsair 32GB DDR5 6000MHz CL30 | Gigabyte RTX 4070S WINDFORCE OC
-
válasz
Hellwhatever #44930 üzenetére
Nem vagy egyedül, bár én már a 2000-es széria óta kívánom őket a 'csába a fogyasztás miatt
"Piroska és Berci, a farkas / Századunk hősei most."
-
PuMbA
titán
válasz
Hellwhatever #44930 üzenetére
A poén az, hogy a 3.1-es ATX szabvány specifikációja lazább, mint a 3.0-ás
"Shorter Hold-Up Time
Measured in milliseconds, hold-up time indicates how long a PSU can sustain its output within specified voltage limits after a loss or drop in input power. ATX 3.1 features a shorter hold-up time of 12ms, compared to ATX 3.0's 17ms hold-up time."
Illetve kijött sok 3.0-ás táp az új 12V-2x6-os csatlakozóval, tehát egész nagy katyvasz lett az egész és nem feltétlenül jobb egy 3.1-es szabványú táp a 3.0-áshoz képest.
[ Szerkesztve ]
-
Hellwhatever
aktív tag
Gyönyörű lesz, 2 hónapja vettem 1000W-os ATX 3.1-es FSP Fortron VITA GM-et a jövőbeli flagship alá mert egyszerűen nem volt más értelmes 1000+W-os 3.1-es táp. 3.0-át meg direkt kerültem ha már eddig nem nyúltam bele, gondolom nem vagyok egyedül.
Tápgyártóknak is jár a keksz btw hogy akkora gyökerek hogy egy minor szabvány változás bejelentése után több mint fél évvel is kapni értelmes 1000+W-os 3.1-es tápot.
[ Szerkesztve ]
9800X3D | ASRock X670E Steel Legend | Corsair 32GB DDR5 6000MHz CL30 | Gigabyte RTX 4070S WINDFORCE OC
-
Abu85
HÁZIGAZDA
válasz
deathcrow42 #44924 üzenetére
A "Minimum recommended PSU" 1200 watt lesz. De ez nem sokkal több, mint a 850 watt, ami a 4090-hez van írva hivatalosan ilyen ajánlásként. Meg ugye ezek az ajánlások nem igazán pontosak.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
válasz
deathcrow42 #44924 üzenetére
Majd megint lesz sÍrás rívás itt egy két emberkétől hogy javult a perf/ watt. kb senki nem tud semmit hogy ez mit takar, ha igaz. Egy tervezett 5090 Ti SKU vagy professzionális bármi vagy csak biztonsági intézkedés a szar csatlakozók miatt. Amúgy nem kell új táp, átalakító kell a régihez.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
hahakocka
őstag
válasz
deathcrow42 #44924 üzenetére
Na akkor lesz ingyen ajándék tűzijáték is most már mellé?
A 600W elég valószínűnek tűnik így s vajon mekkora lesz 50 cm? Tudjuk a méret számít na de ennyit?
[ Szerkesztve ]
-
Alogonomus
őstag
válasz
deathcrow42 #44924 üzenetére
Hát akkor nem véletlenül tettek dupla csatlakozót a 2,2 kW-os tápra.
Korábban is a tápegységek méretezési dokumentumaiból derült ki, hogy az Alder Lake hatalmas fogyasztással érkezik. -
Devid_81
félisten
válasz
deathcrow42 #44924 üzenetére
Legalabb eloszlik az aramfelvetel, vagy 2 csatlakozo fog olvadni ezentul es nem csak egy
...
-
deathcrow42
senior tag
“TweakTown reports that the RTX 5090 could come with two 16-pin power connectors”
Szép, mehet az új táp is az 5090 melléEx frostshock.eu szerkesztő :)
-
-=RelakS=-
veterán
Itt streamelek játékot időnként: https://www.twitch.tv/relaks__
-
-=RelakS=-
veterán
válasz
Teasüti #44921 üzenetére
Azért, mert a kép áll, a szemed viszont mozog.
Nyisd meg az UFO teszt weboldalt, és kövesd a szemeddel a 15fps ufót. Elég randán ugrál, és elég nagyokat, igaz? Na, 120Hz-en ugyanez történik, csak nem 15-ször, hanem 120-szor ugrik az ufó, és 8-ad akkorát. Ezt a szemed már elmosódásként fogja feldolgozni.Amit beraktál tesztképet, ott pont az lenne a lényeg, hogy megmutassák, hogy mozgás közben mennyire mosódik el a kép, így hosszú záridőt fognak használni, egyszerre több képfrissítés is a képre kerül. A kamera együtt mozog a képpel. Minél magasabb a kijelző frissítése, annál élesebb lesz a kép. Minél tovább van egy képkocka megjelenítve, annál szélesebb téglalap fog egy szürke masszává összeolvadni (a képen a 8-as, ami 120Hz-es képfrissítésre enged következtetni, de mintha ezt is írtad volna) Ha van BFI, akkor természetesen rövidebb ideig jelenik meg a kép, keskenyebb téglalapok fognak összeolvadni (pl a képen ez lehetne 60Hz-es kijelző is, 1:1 BFI-vel)
RTIGS pursuit photo olvasnivaló
X2N
próbáltam backlight strobingot, tényleg jó éles, de a panelemen nem kompenzálják a fényerőt, szóval maradok a 240Hz-nél[ Szerkesztve ]
Itt streamelek játékot időnként: https://www.twitch.tv/relaks__
-
Teasüti
nagyúr
válasz
-=RelakS=- #44918 üzenetére
Sose értettem a sample&hold miért nem ad éles képet. Attól, hogy nem a képterület 100% kerül kirajzolásra minden ciklusban hanem csak egy része és nincs BFI, attól még a kirajzolás semmivel se tart tovább, mint egy CRT-n.
A kamerán meg remélem azért van annyi esze a tesztelőnek, hogy a záridőt azt leveszi minimumra. Elvégre nem lehet 1 ms körüli válaszidőket fényképezni ennél lassúbb záridővel. -
X2N
őstag
válasz
-=RelakS=- #44918 üzenetére
Szerencsére van backlight strobing és 540Hz-es tn panel gamereknek crt alternatívájaként. Backlight strobing-ot tudom ajánlani egyébként még alacsonyabb Hz-el is sokkal többet ér mint 2x annyi Hz strobing nélkül...
[ Szerkesztve ]
-
PuMbA
titán
De hogy az észszerűségnél maradjunk egy 240Hz-es LCD-nél vagy OLED-nél több már kisebb különbséget hoz, tehát ezeknek van valós esélye, hogy igazán elterjednek, mert látványosabb a különbség és a frame generation is sokat segít, hogy elérjük ezeket az fps számokat.
Én 80fps-ről 160-ra használok frame generation-t a 165Hz-es monitoron a Cyberpunk 2077 esetén és hihetetlenül jól működik. Kipróbálás előtt azt gondoltam, hogy simán rájövök, de az esetek 98%-ában nem tudtam megmondani, hogy mesterséges képkockákat látok, nagyon-nagyon kevés a képhiba ennyi képkocka esetén. Nem véletlenül ajánlanak 60+fps-t hozzájuk.
[ Szerkesztve ]
-
-
PuMbA
titán
válasz
Teasüti #44916 üzenetére
Az OLED pont ugyanúgy viselkedik ebből a szempontból, mint az LCD. Igaz hogy insant jelenít meg képet, tehát nem csinál valamennyi plusz utánhúzást, mint az LCD, de ugyanúgy sample and hold megjelenítő, mint az LCD, tehát két kép között nem kapsz feketeséget, ami alaphelyzetbe állítaná a retinát, mint a CRT. Ezért az OLED-nél is szükséges a magasabb frissítési ráta, hogy CRT-vel vetekedjen. Nem véletlenül vannak 480Hz-es OLED-ek. Ezek már szinte CRT szintet hoznak.
[ Szerkesztve ]
-
Teasüti
nagyúr
Mit értünk CRT szint alatt? OLED tud instant képet megjeleníteni, erre ilyen képet lőnek rajta a teszten 120 Hz-en. Miért nem tűéles a kép mozgás közben?
Ez remélem mesterséges motion blur, mert egy OLED-től azt várom el, hogy jelenítsen meg 120 tűéles képet egymás után másodpercenként. Mint mikor a MILC gépen 1/3200s záridővel videózol. -
X2N
őstag
Techpowerupon amúgy is rendszeresen szokott lenni a legújabb játékokkal teljesítményelemzés így nem sajnálom hogy kicsit régebbi címek vannak a tesztükben mert így összehasonlítható a régi tesztekkel. Amennyire "optimalizáltak" az utóbbi 1-2 évben megjelent játékok mindegy milyen kártyát veszel úgyse fog jól futni. Majd úgyis bekapcsoljuk a DLSS-t, FSR-t!.
[ Szerkesztve ]
-
PuMbA
titán
"Ha nem tetszik reklamáld meg hogy miért ilyen címekkel játszanak."
Kevesen vesznek új VGA-t drágán, hogy régi címekkel játsszanak, amik már az előző kártyájukon is elég jól mentek
A legtöbb embernek ezért van gyengébb VGA-ja, amit a Steam felmérésben is láthatunk, mert felesleges újat venniük 5+ éves játékokhoz. Ha meg új játékokkal nyomják, vesznek újat.
"4K 60 meg teljesen jó, felesleges itt vergődni a nagy framerate miatt, ez csak multinál számít ott is csak maximum 144Hz-ig a netkód miatt..."
Szerinted
Én játszottam sokat CRT monitoron meg CRT TV-n konzolokkal a 2000-res évek elején és nem csak multinál számít. Az én személyes tapasztalatom ez.
[ Szerkesztve ]
-
X2N
őstag
Nem mindenki akar a legújabb agyonoptimalizált címekkel játszani amik úgy se néznek ki mint egy 10 éves játék 70euróért
Ha nem tetszik reklamáld meg hogy miért ilyen címekkel játszanak. Szerintem elég jól összeválogatták, sok féle engine van, felesleges mindig csak legújabb címekkel tesztelni, főleg hogy a legtöbb az nvidia féle raytracinget erőlteti...
4K 60 meg teljesen jó, felesleges itt vergődni a nagy framerate miatt, ez csak multinál számít ott is csak maximum 144Hz-ig a netkód miatt...[ Szerkesztve ]
-
PuMbA
titán
válasz
Teasüti #44904 üzenetére
Azt se felejtsük el, hogy a grafikonon szereplő játékok nagy része ősrégi
Witcher 3? RDR2? Battlefield V? 5+ éves játékok, jó hogy futnak 4K 60fps-sel egy olcsó VGA-n. Ez a grafikon teljesen értelmetlen 2024-ben. Ha teleraknánk csak tavalyi és ebben az évben megjelent játékokkal, akkor teljesen más eredményt kapnánk.
Másrészt amit mondasz....4K 60fps jó, ha főleg állóképet nézel, de mozgás közben egy 1440p 165Hz sokkal tisztább képet ad az LCD és az OLED mozgás
[ Szerkesztve ]
-
X2N
őstag
válasz
Teasüti #44908 üzenetére
Napi szinten raytracelt 3D renderelt képeket generálok úgyhogy van róla némi fogalmam
. Ezért vettem 16 magos procit, meg 24GB vramos vga-t, mert csomó ideig nem lehetett több vram-al nvidia kártyát venni...Amit ma játékokba látsz az meg se közelíti azt a minőséget amit raytracingelni lehetne, ha lenne elég erős hardver rá. Mert ez a cél nem? CGI film minőségű render...4k felbontáson(pedig filmre is csak 1080p-be renderelnek a pénz/idő miatt... Én pont a tükröződéseket szeretem jobban mint az árnyékokat. Legtöbben szerintem le se sz.rják milyenek az árnyékok, mert alapvetően senki nem szokta nézegetni hétköznap hogy vet árnyákot a nap egyes tárgyakra, ezért nem is tudja a legtöbb ember hogy kellene kinéznie játékban. Míg a tükröződést mindenki tudja hogy kellene kinéznie, messze nem úgy ahogy raszterbe alacsony felbontással trükközve megoldva és nem csak tükrök vannak a játékokban hanem rengeteg vizes felület a karakterek bőrén/szemén is kell tükröződést számolni, ...a GI persze alap, azt össze se lehet hasonlítani a raszterizációval.
[ Szerkesztve ]
-
válasz
Teasüti #44908 üzenetére
Hu tesztre gondolsz? ha jól tudom itt lehet kikeresgetni őket : [link]
A HU tesztnél problémás volt az MSI kártyájuk,de ezt el is mondják ha jól tudom a 4080 super tesztben korrigálták a 4007 Ti super eredményeket, itt : [link][ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Teasüti
nagyúr
Natív 4K-ban mértek, vagy skálázva vannak?
X2N
Ha így állunk hozzá hogy raytrécing kell akkor kb semmi se jó csak a 4090 de az csak 1080p-re maximum szódával elmegy kategória...
Az a baj, ha már láttál realisztikus RT árnyékot, akkor minden régi technika piszok hamar ki fog tűnni és elrontja a grafikát. RT reflection-ről hajlandó lennék lemondani, azt elég jól tudjuk hamisítani. De realisztikus árnyékot nem tudunk vetni hamis technikával. RT ambient occlusion, nap vetette hard light, fényforrások vetette soft light. Ezek mind szódával elmegy kategória, de egy RT global illumination mellett nagyon hamar kilóg a lóláb.[ Szerkesztve ]
-
nem "fogtam arra" hanem tényként közölltem, ott van feketén fehéren a te általad berakott képen.
láthatod hogy ez teszt függő. alkalmas a 4070 Ti super is RT vel játékra mint hogy az 7800XT raszterben. [link]
Computerbase közil mindíg a pontos játékgrafikai beállításokat minden címnél.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Szerintem is drága a 4070 Ti super .. de a 71 FPS átlag úgy van meg 7800XT nél hogy benne van egy Doom 170 FPS sel és eltorzítja az egész képet. valójában a 7800XT ezt tudja nem hogy max , hanem finomított beállításokkal is: raszterben: százalékkal és konkrét számmal:
és ezt RT ben mindkét kártya :
messzebb van a 7800 XT raszterben 4 K ban a 60 FPS től ( 51) mint amennyire 4070 Ti super RT vel 4 K ban a 60 FPS től ( 58)
Radásul a 4070 Ti superrel raszterben is meg van a 4 K ban a 60 FPS átlagban ezekkel a beálításokkal míg ugyan azon beálításokkal. teljesen más liga a 7800XT..[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Teasüti
nagyúr
E grafikon alapján csak a szereplők 68%-ánál van meg az átlag 60 fps.
Ahol nincs meg ott meg ilyen xbox360 szinten vagyunk teljesítményben.
Régen volt már. Annyira régen volt már a 30 fps sztenderd, hogy nekem újabban a 30 fps átvezető videók is kellemetlenek a szememnek (jó, ez mondjuk videós szemszögből minősíti a stúdió balfaszságát). Teljesen felesleges erőltetni a 4K-t, ha a mozgás felbontás meg beesik 480p szintre a 30 fps melletti 50% motion blur miatt. Vagy ha kikapcsolom a motion blur-t, akkor meg stop motion és kifolyik a szemem.[ Szerkesztve ]
-
X2N
őstag
válasz
Teasüti #44902 üzenetére
Alig gyorsabb 4070Ti super nem ér meg +160ezret szerintem a 7800 XT-hez képest. Nem kell 4090 4K-ra a teljes játékélményhez. Itt is 70 az átlag, úgy hogy mindent feltettek maximális beállításra, abból meg lehet még visszavenni...jellemzően 1-2 grafikai opciót kell visszább venni, cyperpunknál is 1-2 grafikai opciót visszaveszel high-ra és stabil 60fps-ed van. Ha így állunk hozzá hogy raytrécing kell akkor kb semmi se jó csak a 4090 de az csak 1080p-re maximum szódával elmegy kategória...4K-t raytracingel el lehet felejteni még 15-20 évig...
erre a jelenlegi kártyák is teljesen alkalmatlanok.
[ Szerkesztve ]
-
Teasüti
nagyúr
4070 Ti S - cirka 360k... Frame Gen nélkül nem megy a 60 fps tavalyi címekkel nem hogy 4K-ban, de DLSS Performance módban is alig-alig. A FG 60 fps meg elég szaggatós élmény, szóval 20-30 fps-ről interpolálni egy katasztrófa.
Persze ez AAA Ultra grafikán. Nyilván min-med grafikával potato PC is elég sok mindenre.
Erős kompromisszumokkal emeberek elvannak még az 1060 GTX-en is, illetve a 3060 12GB se véletlen népkártya. Valamint indie-hez se szokott kelleni a high end. De a megállapítás az a kurrens AAA játékokra vonatkozott. A te érved szerint 200e-ért megy a 4K60 idei AAA játékban.
Amennyire én látom 4090 kell elég sok helyre natív 4K-ban a teljes* játékélményhez.* Leginkább Ultra, de High-nál semmi se legyen lejjebb. Illetve ahol van RT, ott RT bekapcsolva.
[ Szerkesztve ]
-
X2N
őstag
válasz
-=RelakS=- #44899 üzenetére
Van remény. Talán idővel lesz belőle valami. Addig marad a P2415Q.
S_x96x_S-Szerintem elég ideális. Ennyi pénzért a a konzol ezt a minőséget meg se közelíti.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Autós topik
- NVIDIA GeForce RTX 5080 / 5090 (GB203 / 202)
- Íme az új Android Auto!
- Kingdom Come: Deliverance
- Nintendo Switch
- Hitelkártyák használata, hitelkártya visszatérítés
- Régi Gépterem: II.386
- A gyári kábelek fontosságára hívják fel a figyelmet az új GeForce-ok gyártói
- Gyúrósok ide!
- Milyen alaplapot vegyek?
- További aktív témák...
Állásajánlatok
Cég: Marketing Budget
Város: Budapest