-
IT café
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Busterftw
nagyúr
-
Quadgame94
őstag
Az árazés ment félre. Önmagukkal harcolnak és sajátmagukat sem tudták megverni. Vagyis inkább akkor nem akarták? Legkisebb előrelépést hozza ez a generáció az előzőhöz nem is tudom mióta... 15 vagy 20 éve? Az 5070 Ti hiába fedi le az AMD új palettáját ha 200 dollárral többe kerül majd. Ha nem fogja így árazni az AMD akkor persze más a helyzet.
5070 meg nem lehetne 4080 mert a Blackwell-ből azt nem lehetne kihozni. 5080 is alig veri majd meg. Még az 5070 Ti sem fogja elérni a 4080-at.
És kis megjegyzés: Minél nagyobb vagy annál nagyobbat eshetsz. Szinte mindenki GeForce tulaj a piacon. Szerintem jó sokáig negatív sajtót fognak kapni ezek a kártyák.
-
veterán
Igen a 4090-et ne erik el, de itt nem errol fog szolni fokent hanem az 5070-9070xt, marmint errol kellene de ha jok anleakeke akkor be ehesedik az AMD es megemeli az arat
De ha nem emelne megis mire lenne jo a 12Gb 5070 ha olcsobban agyonverne mond raster mind RT alatt.... ooo 100dodoval learaz? Akkor erne el a REF 9070XT arat. Meg lejjebb?
Nem fog elofordulni, mert balfac az AMD, eleve megbeazelik es erre gyarto kapacitasa sincs az AMD-nek. -
S_x96x_S
addikt
ki tudja ...
> Az általam likelt interjú az Nvidia vezérétől és a Reuterstől van, exklúzív.
Jensen csak annyit állít, hogy nem csökken a kapacitás.
sőt - valamikor majd - növekszik is a CoWOS-L átállással.
de a részletekbe nem megy bele, pl. hogy ezt milyen időtávra értette és mit gyártanak pontosan, és a TSMC mikorra igérte az átállást.Sőt a meggyőzés érdekében a 2 évvel ezelőtti kapacitáshoz hasonlítja:
"Still, Huang said that the amount of advanced packaging capacity was "probably four times" the amount available less than two years ago."- Vagyis az én értelmezésem szerint - a Jensen nyilatkozat nem zárja ki hogy (ideiglenesen) olcsóbb RTX50-et gyártanak GB200 - helyett, hogy ne kelljen a TSMC-nek kárpótlást fizetni a kisebb megrendelésért/kapacitásért.
------------De ami tényleg igazából lényeges - az új USA exportszabályozása,
de ezt meg érthető módon szándékosan nem kommentálta:
"He declined to answer questions on the new U.S. export restrictions that limit AI chip exports to most countries except for a select group of close U.S. allies including Taiwan."És ha tényleg beüt a vészhelyzet - új USA AI export szabályozással kapcsolatban.
akkor lehet, hogy az RTX50 -t könnyebb lesz eladni, mint a GB200-at.
főleg ha lesz ország-kapacitás limit is.
Úgyhogy meg lehet racionalizálni az RTX50 -es átállást.persze a Tier2- ben a 50ezer GPU - per ország limit elég vad elképzelés,
pláne ha 3 év összegére vonatkozik SUM (2025 ,2026, 2027)
és beleszámítják
nemcsak a konzumer nVidia RTX -ket , de az AMD és az INTEL GPU-kat is ."" Bloomberg reports that the limits include a cap of about 50,000 GPUs between 2025 and 2027, though it’s unclear which GPUs are included. """ ( trendforce )
[ Szerkesztve ]
Mottó: "A verseny jó!"
-
S_x96x_S
addikt
> Szerintem a bevételeikre nem lesz hatással.
nem tudjuk, hogy mi volt az eredeti terv,
de ahhoz képest szerintem lesz csökkenés.
A TSMC bevételei 2025Q1-ben még úgy is csökkennek
hogy az nVidia a lemondás helyett - az olcsóbban árulható RTX50-et gyárt.
( "GB200 wafer volume with RTX50 graphics cards.")"TSMC expects 5% sequential revenue drop in 1Q25, plans record capex for 2025"
https://www.digitimes.com/news/a20250116VL206/tsmc-revenue-2025-capex-2024.html> a Hopper és Blackwell is CoWoS L lesz,
> és a BW ből lesz az új optikai eljárással is gyártás.de mikor?
Ha 2025H2 -ben,
akkor az matematikailag kihat a 2025Q1 -re.
És ha ez olyan egyszerű lenne az átállás,
akkor nem emlegetnék a "kompenzációt"
"""
to avoid impacting TSMC’s performance, they have agreed to compensate for the reduced GB200 wafer volume with RTX50 graphics cards.
""
valamint:
14 January 2025
"TSMC maintains CoWoS equipment orders despite Nvidia demand concerns"
https://www.digitimes.com/news/a20250113PD236/tsmc-equipment-cowos-nvidia-demand.htmlMottó: "A verseny jó!"
-
hokuszpk
nagyúr
nincs ezzel problema, mindig voltak eloremutato technológiák, amik aztán vagy megmaradtak, vagy nem. De a pc iparban általában az maradt meg, amit a nagytöbbség támogatni tudott. Már az ősidőkben -- bár az eredetit az IBM csinálta és magának -- a bios azért volt, hogy elfedje a sokféle hw közti különbséget. Ha aszontad, hogy
mov al, $41
mov ah, $0a
int $10biztos lehettel benne, hogy tokmindegy, hogy Hercules, Cga, Ega vagy éppen már Vga kartyad van, odapottyint a cursor poziciójába egy "A" betut.
a directx ugyanezert jott letre, volt sokfele grafikus kartya 3d supporttal, aztan mar akkor is problemas volt, hogy melyiket tudja az adott program kihasznalni. Imadtam az Unrealt a Diamont Stealth ( Savage 4 ) kartyamon S3 Metal apival, -- ment 1024x768 -ban teljesen jól -- de sajna nemigazan volt több jatek, ami kihasznalta volna. Pedig micsoda fenyek es tukrozodesek voltak a var elotti hidon
lehet különcködni, sponzoralni az NVnek nagy gyakorlata van ebben, de hosszutavon ugyis az lesz, amire az sw fejlesztok es az MS rabolint.
Első AMD-m - a 65-ös - a seregben volt...
-
Abu85
HÁZIGAZDA
Azért a neurális shadereket ne keverjük ide. Azokat tök egyszerű lesz támogatni a DirectX új shader modell frissítésével, hiszen abban jönnek a kooperatív vektorok. És ennyi. Nem kell semmi más hozzá, ráadásul ezeket azért visszafelé is elég jól támogatják a meglévő hardverek. Nem csak az érkező generáció, hanem már az előzőek is. Még a Qualcommnak a rém buta Adreno IGP-je is tudja támogatni. Tehát ez egy olyan képesség, amelyre a hardver már most ott van több tízmilliónyi user számítógépében. Nem kell hozzá új GPU-t vásárolni.
A többi dologgal sokkal nagyobb munka van. Például a Displaced Micro-Mesh Engine, vagy a Opacity Micromap Engine azért nem terjedt el semennyire, mert kétszer kell hozzá megtervezni a tartalmat a játékba. És itt a geometriára kell gondolni. Ez a gond velük, illetve általában a geometriát érintő fejlesztésekkel. És amíg ezek szabványosak, addig ez vállalható, mert akkor tervezed erre a tartalmat, de kétszer senki nem fogja ezeket letervezni és szállítani. Emiatt nem ugyanaz a dolog, mint mondjuk a neurális shaderek vagy a SER esetében, amelyek ugye nem növelik meg egy 4 évig fejlesztett játék fejlesztési idejét 6 évre. Vagy, ha 4 év alatt végezni kell, akkor nem kell másfélszer több embert alkalmazni, hogy legyen letervezve kétszer a tartalom.
#47867 gbors : Nem is mondtak mást. Az NV elsődlegesen a DLSS4-gyel hangsúlyozza a teljesítménynövelést. Alma-alma vonalon nem mondanak annál többet, amit megmutattak a mostani dián. Ezt csak azért rakták bele így, hogy senkit se érjen váratlanul, és ezt ki is hangsúlyozták. Ez azért fontos, mert így kritikus szempont azt hangsúlyozni, hogy DLSS4-gyel jön majd a teljesítmény, amiről szólniuk kell majd a teszteknek.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
hokuszpk
nagyúr
egy szóval sem minősítettem az NV alkalmazottakat ; le a kalappal, hogy ennyisokmindent is kitalálnak ; de hw halála, ha nincs sw ami használja ; ( az AMD is tudna erről mesélni ) jelenpillanatban ha jólértem az MS -nél pattog a labda, de csesznek vele mit kezdeni.
[ Szerkesztve ]
Első AMD-m - a 65-ös - a seregben volt...
-
Abu85
HÁZIGAZDA
Az RT esetében a szabványos megoldás a döntő, mert azt támogatják a játékok. A GeForce RTX 40-ben is van Displaced Micro-Mesh Engine, Opacity Micromap Engine, Shader Execution Reordering. Ezek közül a Cyberpunk 2077 használta egyetlen egy beállításra a Shader Execution Reorderinget, és nem is a legjobb minőségre, mert abban nincs ott. Tehát a 40-es sorozat három nagy RT újításából egy jutott el a játékosokhoz, egyetlen egy játékban, egyetlen beállításban. Ja és az 50-es szériával a Displaced Micro-Mesh Engine megy a levesbe, vagyis az úgy halt meg, hogy nem is használta semmi. Hihettek abban, hogy ezeket majd használni fogják, de előbb szabványosítani kell őket. A Shader Execution Reordering egyébként kurva jó, tényleg megérné szabványosítani, de annyira lassan halad mostanában a Microsoft, hogy az AMD is inkább olyan hardveres megoldást épített magának, hogy ne kelljen specifikus kódot írni ennek a működéséhez, hanem működjön bármilyen kóddal. És nem azért van ez, mert jobb a hardveres megoldás, hanem azért, mert igazából a jelenlegi tempóval ezt a Microsoft akkor fogja szabványosítani, amikorra a most érkező generáció már a múzeumokban lesz.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
hokuszpk
nagyúr
-
PuMbA
titán
RT magokat jól meggyúrták. Új Opacity Micromap és Displaced Micro-Mesh motor. Legideálisabb esetben 10x gyorsabb BVH építés, 20x kevesebb helyfoglalással, de a valós gondolom a fele körül lehet.
Aztán lett AI Management Processor, illetve a Shader Execution Reordering is kapott új iterációt. RTX Mega Geomerty, RTX Hair, Neural Radiance Cache...vannak újdonságok dögivel. Nem tétlenkedtek.
A legérdekesebb azért mégicsak az új DLSS 4 lesz, mert a képek alapján jóval jobb felskálázó lesz, mint a 3.7. A 3.7 pedig verte a PSSR-t....szegény Sony.
[ Szerkesztve ]
-
nagyúr
A linkelt kép elég fontos a következő miatt:
So in Ampere (RTX 30-series), Nvidia doubled the number of FP32 CUDA cores but half were only for FP32 while the other half could do FP32 and INT32 — INT32 often gets used for memory pointer calculations. Ada kept that the same, and now Blackwell makes all the CUDA cores uniform again, just with twice as many as in Turing.
Az Ampere-ben úgy lett megduplázva az FP32-es ALU-k száma, hogy a hozzájuk tartozó "infrastruktúra" maradt a Turing szintjén, és ez az Ada-ban is így maradt. Ha most a Blackwell ezt az uniformizálással szintén megduplázza, akkor az meglehetősen komoly előrelépést jelent effektív számítási kapacitás szintjén. Ezt ráadásul a jelentős sávszélesség-növekedés meg is tudja támogatni. Ha ez történt, akkor a 4080 esetében a nyers 15%-os számítási kapacitás-növekedés akár +35-40% FPS-re is lefordulhat. Ha nem akkor maradok +23-28%-os becslésnél
"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
veterán
Olvasd figyelmesen RT alatt DLSS nelkul, RT gyurtak valszeg akkor ez raszterban meg nagyobb gyasz lesz.
Es a 4070-hez.. ezert kerdeztem elofordulhat hogy a 5070 nem veri meg raszterban a 4070S-t? Kovetkezo gen valtasanal mi lesz lassabb lesz a 6070 mint a 5070?Es mint mondom ott fikazzak a topicban a 9070-et hogy lofasz elore lepes
Ha kiadnak es valoban azt tudna a 9070XT hogy kb 4080 es 550dollar az AIB kartyak akkor az 5070 gyartasat be is fejezhetnek[ Szerkesztve ]
-
hahakocka
őstag
Igen azóta látom elnéztem . Asust ezért se veszek régóta kb. Vicc hogy ennyit kérnek érte. Annyival nem jobb a többi jó hűtésű megoldásnál. Amúgy a 20Gbs az nem áll leejtős nem?
Hát igen, ezért is írtam mert a többség úgyis AIB okat fog venni, s főleg, hogy egy idő után ki szokták vezetni az FE ket nem?
A 9070 nél meg szerintem nem tuti hogy megéri majd az XT. Én is azért vettem sima 5700 at annó mert az XT vagy 40-50e ft al volt drágább ahogy kb a 2070 is 10% os előnyökért. 110 helyett nem akartam azért 155-160e -t fizetni ugyanannyi vrammal. S szerintem most se akarok majd lehet... Már ha olcsó lesz. 5070Ti az ami mér érdekelne esetleg engem az jónak néz ki csak szerintem AIB ok ott 440e ért lesznek s kb az se lesz akkor sokkal erősebb 4080 nál nem? Tudom persze frame gen spell
[ Szerkesztve ]
-
hahakocka
őstag
Nem kijelentő, hisz kérdeztem hogy az értelmesebb hűtéssel bezony lehet lesz annyi e? Te vagy a szakértő e téren. MSRP be lehet ugyanannyi de az infláció , a gyenge FT miatt szerintem itthon drágább lesz mint azok kezdéskor.
Most volt hír amit kirakott az AMD topikba kollega hogy 20Gbs el 16gb os lesz mindkét kártya. (először 20gb nak néztem). Most már mindent kitalálnak az utolsó napokban. S sokan már mutatják be youtubeon a kártyákat gaming teszteken meg ilyen csak beírós nyereményjátékban (semmi kép, videó bizonyíték) 5090 et adnak és ezt elhiszik sokan???[ Szerkesztve ]
-
hahakocka
őstag
Indy nehogy megegye maxon vagy erős RT-DLSS kombóval 4K ba főleg . Nem egy game már evett 18-19gb ot is 4K n ha persze maxon vagy RT DLSS kombóval ment valami.
5070 kb 330e ft lesz nem az értelmesebb kiadások? Hogy érné meg jobban? Ha csak 15-20% al lesz jobb a 4070 nél, ami sokszor a 7800xt ársávjában is volt 220-240e közt. Kezdéskor is az nem volt szerintem 300. Persze az infláció s a gyenge FT-EU árfolyamunk is belejátszik most.
5090 éri meg most legjobban azoknak akiknek van egy 4090, s eladják és talán úgy, bár úgy is lesz talán 600e, de ott már nem számít gondolom.
[ Szerkesztve ]
-
Quadgame94
őstag
Érdekes, hogy összevonták az FP32/INT32 magokat. Valójában ez eléggé kevés teljesítmény növekedessel fog járni, mert a magok száma nem növekedett az SM-en belül. Az összevonás a hatékonyságot növelheti, de kb ennyi. Oda kellene eljutni hogy az FP32/INT32 dedikált magok mellé (64 db) több FP32 magot rakna az NV (96 vagy 128) így egy SM 160 vagy 192 magból állna. FP32 amúgy is fontosabb játékokban, bár az igaz, hogy az INT32 meg egyszerűbb logikai műveletekben jó és hatékony.
-
huskydog17
addikt
Több sajtónál is megjelent a deep dive a Blackwell-hez, úgy tűnik ezek a technikai részletek NDA-s infók voltak, ami ma 15 órakor járt le.
TPU:
NVIDIA GeForce RTX 50 Technical Deep DiveRengeteg új diát adtak most a zöldek, rengeteg új infó van a bejelentéshez képest, érdemes átfutni a diákat, nagyon sok hasznos infót rejtenek.
Úgy látom a Blackwell szériának egyik nagy erőssége a neural shader lesz, ami elég masszívan megdobhatja a látványt játékokban. A Tensor és RT magok tempóját megduplázták, a kijelző és multimédia motorokat frissítették, most már biztos, hogy a Blackwell a legújabb és leggyorsabb HDMI és DP csatlakozókkal fog rendelkezni (DP esetén UHBR20). Az RT magok memóriaigénye 25%-al csökkent.
Az FE hűtés design-hoz tartozó diákat különösen érdekesnek tartom, ott jól látni, hogy az új design (Double-Flow-Through) mennyivel hatékonyabb, mint bármely más hűtés, itt jól látszik, hogy miért előnyös a kis PCB. Itt még mindig döbbenetes számomra, hogy az 5090-nél, 512 bites busz és 12 db VRAM modul és brutál izmos VRM mellett ilyen pici PCB-t sikerült alkotni. Az FE hűtés 30-35 dB környékén várható a diák alapján.
Szintén a friss diák alapján nagyjából így néz ki a nyers (shader) számítási teljesítmény játékokban, azonos körülmények között:
RTX 5090 vs. 4090: kb. 33%
RTX 5080 vs. 4080: kb. 15%
RTX 5070 Ti vs. 4070Ti: kb. 20%
RTX 5070 vs 4070: kb. 20%A CB táblázatában tökéletesen látható, amit már korábban is mondtam: a csúcs kártya 5090-es kivételével mindegyik kártya olcsóbb, mint az Ada indulásakor, az 5080-as 200 dollárral, a két 70-es kártya 50-50 dollárral, tehát nincs drágulás a csúcsterméket leszámítva. A csúcstermék esetén pont az lett volna a csoda, ha azonos áron jön, hiszen az 512 bit és a 32 GB GDDR7 miatt eleve sokkal drágább gyártani, mint egy 4090-et, ezen felül az FE hűtés sem olcsó mulatság (der8auer szerint).
Olyan sok az új infó, hogy még nem futottam át teljesen a cikkeket, csak felületesen, de majd pár órát rászánok később.
[ Szerkesztve ]
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
hokuszpk
nagyúr
jah, lehet 8GB elfogy manapság, de a 16 csak elég lesz, főleg ha végre elkezdik használni a directstoraget, tesznek a gpuba kitömörítéshez támogatást ; nomeg kaphat pcie gen5 -öt is amivel gyorsabban lehet cserelgetni a vramban levo texturakat.
ki mire emlexik, ma lesz az AMD RDNA4 bemutatója ?Első AMD-m - a 65-ös - a seregben volt...
-
hahakocka
őstag
Az igen akkor kiszolgált és még akár szolgál ma is! Megérte akkor az a 2080Ti!
Igen persze ösztönöznek szépen így, hogy 1-2 évente vegyél új kártyát kb. Sajnos. De most a 9070-9070XT-nél is miért nem lehetett volna 20-24gb ot rakni..... Lehet rájöttek ebben is másolni kell az NV-t nem csak névben, DLSS-FSR tekintetében stb .[ Szerkesztve ]
-
Raymond
félisten
Ez az egy bibi teljesen erthetetlenne teszi az egesz hirt (de az infok tenyleg kint voltak a bejelentes napjan):
"As per his post, the Frame Gen will not utilize the newer AI model that will enhance performance, deliver lower latency, and consume less VRAM than before."
Privat velemeny - keretik nem megkovezni...
-
huskydog17
addikt
ASUS A7N8X-X tulajdonos/felhasználó voltam 7 éven át (nForce 2 Ultra 400 chipset). A legjobb chipset volt akkoriban.
2003-tól 2010-ig használtam azt a gépet, a lapban egy AthlonXP 2400+ volt T-Bred B maggal.[ Szerkesztve ]
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
S_x96x_S
addikt
> NVIDIA WoA SoC: Architecture: Blackwell, 180-200 TOPS
talán a mobil RTX 4060 - teljesítményéhez lesz közel.
Referenciának:
NVIDIA Jetson Orin Nano Super Developer Kit = 67 TOPS AI Performance [$249]valamint - desktop AI TOPS
RTX 5070 - 988 AI TOPS
RTX 4090 - 1321 AI TOPS
RTX 4080S - 836 AI TOPS
RTX 4080 - 780 AI TOPS
RTX 4060 - 242 AI TOPS
RTX 3090 - 285 - AI TOPS
RTX 3060 - 102 AI TOPS
RTX 2080Ti - 114 AI TOPS
RTX 2060 - 52 AI TOPS
( a számok - a HIVATALOS nVidia AI Top számok - az nvidia weboldaláról )mobiloknál kevesebb:
RTX 5090 Laptop GPU - 1824 AI TOPS
RTX 5080 Laptop GPU - 1334 AI TOPS
RTX 5070 Ti Laptop GPU - 992 AI TOPS
RTX 5070 Laptop GPU - 798 AI TOPS
(innen)[ Szerkesztve ]
Mottó: "A verseny jó!"
-
gV
őstag
ez elég rosszul fest. amióta RTX van a legnagyobb teljesítmény ugrást hozó gen-t követi a legkisebb. pedig időben most telt el a legtöbb, hogy valami nagyot alkossanak. viszont a DLSS meg pont most lép szintet minőségben és jön a Reflex 2. ráadásul ezeket megkapják a korábbi szériák is, ez remek.
amúgy az AMD is jókor kukázza a felső kategóriát. most lenne a legtöbb keresnivalójuk ott.[ Szerkesztve ]
-
-=RelakS=-
veterán
Azért feltételezném, hogy a DLSS, FSR, és XeSS jobban működik, mint a Losless scaling egész egyszerűen azért, mert azoknak van információjuk a mozgásról, nem pedig a kész kép alapján találnak ki valamit.
Cserébe a Losless működik filmekkel isItt streamelek játékot időnként: https://www.twitch.tv/relaks__
-
Devid_81
félisten
Oszinten?
Fingom sincs, mar mindenki mindent is mondott de azt 3x is, jo lenne a sok felrevezetes/kavaras utan vegre vmi kezzelfoghatot latni az AMD-tol.
Meg amugy hova varjuk az 5070-et pontosan?
Nekem az sem vilagos am, hogy a fake frame generator nelkul pontosan hova kerul
Gondolom ho vegen megvilagosodunk, az 5080 reviewkbol mar sejteni lehet vmit, hogy alatta mi merre...
-
Raymond
félisten
En meg mindig szkeptikus vagyok azzal kapcsolatban ami itt is van hogy az 5080 a 4090 szintjen vagy folotte lesz raszter vagy sima RT/PT mellett. Nem mutattak semmit hogy ezekben javult volna az arch es a spec szamokbol itelve nem latom honnan jonne az a 30%+ sebessegnovekedes.
Privat velemeny - keretik nem megkovezni...
-
őstag
Így azért 4K play-re 4080-ról még kérdéses, hogy 4090 vagy 5080 lesz a jó választás, mondjuk csak órajelek alapján még mindig nem lehet pontosan számolni, pl pcie 5.0 meg a többi fejlettebb tech miatt még azonos órajelen is lehet simán előrelépés, most a frame gen az egy dolog, az főként single játékokhoz kell szvsz
¯\_(ツ)_/¯
-
yarsley
aktív tag
A franc se tudja, valószínűleg redditen. Most hogy utána gugliztem (többször is), semmit nem találok róla, hogy mennyire lesz kompatibilis 2GB-os modul a 3GB-ossal, és lehet hogy én emlékeztem rosszul (Clamshelles megoldáshoz kell jobb PCB), illetve amit Yutani is említ, hogy magához a GDDR7 ugráshoz is.
Amit sikerült találni, hogy 2GB-os GDDR7 modulok 266-os BGA tokozással jönnek, ha valaki talál hasonlót 3GB-osban azzal össze lehetne vetni.... ne úgy képzeld el, hogy te vagy Thomas azt mész amerre a sin visz. (c) virkir
-
Yutani
nagyúr
Most a kiszámolt két frame közé interpolál egy plusz képkockát, így lesz 30 FPS-ből 60, de közben az input lag marad magas (ha nincs valami varázslat). A jövőben pedig azt fogja csinálni, hogy a mozgás vektorok alapján számol három képkockát (azaz extrapolál), míg ki tudja számítani a valós negyediket? Az tényleg komoly előrelépés lenne, mert azzal látszólag csökkenne az input lag és komoly FPS növekedést tenne lehetővé. Csak kérdés, amikor jön a valós negyedik frame, mennyi lesz a delta a számolt harmadik frame-hez képest?
[ Szerkesztve ]
#tarcsad
-
PuMbA
titán
De már jelent meg olyan cím, ahol kötelező az RT hardveres támogatása: Indiana Jones and The Great Circle. Előtte pedig Avatar, illetve Star Wars Outlaws, amik hardveres RT támogatás nélkül is futnak, de lassabban, mert ebben az esetben szoftveres RT kerül használatba. Az Unreal Engine 5 címek szintén kötelezően szoftveres RT-t használnak jelenleg, ami az újabb verziókkal hardveressé fog alakulni, hiszen az UE 5.4-ben már a hardveres RT teljesítménye beérte a szoftverest és a minőség is jobb. Lassan, de elkezdődtek a dolgok.
[ Szerkesztve ]
-
M@trixfan
addikt
Pontosan és túl hamar lett ráerőltetve a játékiparra. Ráadásul ez csak fény/árnyék, nem a maga a jelenet Raytrace-elt. Szerintem az Nvidia már az első RTX tervezésekor nem a játékosok igényét nézte első helyen hanem az “ai” és egyéb ipari területeken levő neuronhálós modellezéshez tervezte és ez mondhatni “melléktermék”. Magát a technológiát nagyon szeretem és persze, hogy izgalmas az RT.
twitter: MatrixfanLive | Ősidőktől a PH!-n
-
KRoy19
őstag
Na igen. Ezt nagyon sokan nem értik, hogy ez nem a végfelhasználónak szóló előadás. Mármint úgy van eladva, mintha nekik szólna, de valójában ez a befektetőknek szól, akik szeretik a hangzatos szavakat meg az egekbe mutató grafikonokat.
Corporate bullshit az egész.[ Szerkesztve ]
-
-
AsakuraDave
őstag
Persze, csak ezzel van marketingelve és gaming kártyákról beszélünk, top high-end kártyákról és csak szó sem esett a ranszter teljesítményről, minden második szó az AI volt, és ez az AMD prezire is igaz volt pedig ott még kevesebbet mondtak
Én csak arra vártam már egy ideje, hogy végre egy hardver talán amin az olyan játékok mint egy CP77 majd 4k natív-dlss quality mellett full RT-path tracing-el játszható lesz, de nagyon nem tartunk itt, pedig sztem már kellene csak most elmentek az AI irányba mert abba több a zseton.There's only one thing that hurts people more than lies. It's saying out loud the truth and facts.
-
Csokifalo
senior tag
Pedig mégis mennyien ugrottak erre ( hogy az 5070 az új 4090... )
A gamerek 99%-a nem IT szakember, csak játszani akar. Nyilván minden új gen előrelépés elég kevés a példa arra hogy hátralépés lett, a kérdés az, hogy a jelenlegi előrelépés hoz-e annyit, hogy egy gamer rámozduljon, kivéve persze azok akinek day1 kell mindenből függetlenl attól jó-e vagy sz@r
A 25 fps >> 250 fps képet meg majd jópáran készpénznek véve már rohannak is venni, tök mindegy mi hangzott el a show-n vagy mi van az apróbetűs részben, ez kissé olyan mint a black friday hungary árak, mindenki tudja hogy kamu az akció, mégis dömping van mindenért[ Szerkesztve ]
-
S_x96x_S
addikt
> milyen logika van ez mögött?
Mottó: "A verseny jó!"
-
S_x96x_S
addikt
> Mit alkudni? Bejelentették az árakat.
A használt GPU-k ár-trendje a téma;
És azt a kereslet és a kínálat mozgatja.TLDR: Aki upgradelni akar 40x0 GPU -ról ( és a legjobb áron akarja értékesíteni )
annak spekulálni kell, hogy mi mozgatja majd a használt 40x0 GPU - árakat.
[ Trump lehetséges vám bejelentése ; a konkurencia ( Intel/AMD) versenyképessége ( ahova az IGN-es Black Ops elmélkedés is tartozik; etc. ][ Szerkesztve ]
Mottó: "A verseny jó!"
-
deathcrow42
aktív tag
AMD maximum egy “AI” spamet/salátát a CES keynote során, Lisa Su nélkül, lul.
Értem, hogy megvárják az Nvidiát, hogy megpróbáljanak alávágni…? De az FSR vs. DLSS miatt már eleve 15% árhátrányban vannak. Eddig abszolút csalódás az AMD részéről, de Jensen remélem rátesz az 5080/5090 árakkal
[ Szerkesztve ]
Ex frostshock.eu szerkesztő :)
-
veterán
TPU-nál a tesztelőt kéne kidobni, nem a játékokat.
Mert pont az a baj ,hogy a jó játékot is szarul teszteli.
Lásd proci tesztek náluk, de végig.De látom ,hogy továbbra is VBS On tesztel... hiába frissített mindent.
Viszont ott a 9800X3D a gpu tesztnél. Félsiker.[ Szerkesztve ]
a dog may just be a couple chapters in your life, but you're their whole book
-
hahakocka
őstag
Lehet régen volt brands oldal de sok NV német brands oldal is volt, s talán van ma is.
De a HWU most pont az RT-t szokta dicsérni, hogy aki azt akar vegye inkább az NVt sokszor mondják pont ezt a videók végén. S most szerintem függetlenebbek mint régen voltak akár. S náluk van sokszor a legrészletesebb teszt RT on OFF, MIN-MAX, FSR on OFF, fogyasztás és ár per performance, 1080p-1440p-4K és ezen belül medium high ultra, 50 game teszt stb
Hát igen a TPU nál meg pont fordítva érzem az évek során amit fent omfgk is írt.[ Szerkesztve ]
-
hahakocka
őstag
No de ezek is 6 naposak és némelyik live pl Stalker 2. Nem tudom milyen gamekkel tolta, RT on vagy off, melyik driverrel stb Itt ezeknél minden egyező . Live és gaming is van és benchmark is. Eddig sehol nem hallottam hogy 4070 ti vagy 4070 ti super XTX kateg lenne...... Pedig pár év már eltelt. De akkor válts 5080 ra ennyi ha nem jött be. Agyon húzott kártyát meg nem fogsz sok évig használni az tuti. Eleve akkor húzd meg az XTX et is. De ezeknek én sosem látta értelmét max FPS huszárkodásra. Hosszú távra nem kártyabiztosítás. Ahogy CPU nál se.
[ Szerkesztve ]
-
veterán
A Ti Super-t a 7900XT alapján írtam. Mert ugye az AMD oszlop nincs az Nvidia oszlophoz hozzáigazítva.
A 7900XT lazán veri a 4070Ti-t. Valahol a Super előtt van picivel. Ray Tracingben nyilván mögötte.
Mindegy, ez már részletkérdés.
A lényeg az ár. Nem hinném ,hogy tud úgy árazni az AMD ,hogy ez tényleg win legyen.
400-500 dolláros szegmenst kéne megcélozniuk.Mert oké ,hogy a high end-et feladták most, de legalább a középkategóriában kéne győzni ár/érték arányban...
[ Szerkesztve ]
a dog may just be a couple chapters in your life, but you're their whole book
-
-
huskydog17
addikt
Pont most olvastam 1 perce a CB-en, viszont a HDMI 2.2 a mostani új VGA-kon biztosan nem lesz, legalábbis a CB azt írja, hogy 2025 első félévben fogják megkapni a különböző partnernek a 2.2-es specifikációkat, azaz a gyakorlatban még várni kell rá, még az is lehet, hogy idén még nem lesz semmilyen 2.2-es eszköz a piacon. Az viszont jó hír, hogy megduplázták a sávszélességet és ezzel ledolgozták a hátrányt a DP-hoz képest. Nekem mondjuk kicsit fura, hogy csak alverziót léptek, mert szerintem sáv duplázásnál simán lehetett volna HDMI 3.0 is.
Ja a TPU is írja:
"The new specification will be available to all HDMI 2.x Adopters and they will be notified when it is released in H1 2025."
Akkor ez majd mehet az RTX 60-as szériára.
Még nem is adták ki a speckókat, így kizártnak tartom, hogy a Blackwell-en ez lesz.
[ Szerkesztve ]
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
Ribi
nagyúr
Igazából ha egy csupasz tranzisztorra rávilágítasz, lehet mérni feszültséget a lábai között.
Szóval mióta tranzisztor van, ennek az alapja is megvolt.
Nyilván nem így működik amit fejlesztettek, de van egy olyan érzésem, hogy nem kellett annyita sokat mókolni, inkább csak felesleges volt ez eddig ezzel szórakozni.[ Szerkesztve ]
-
gaben22
senior tag
-
huskydog17
addikt
"Most is azt gondolom, szükség lenne egy Crysis momentumra a játékiparban, amikor egy 5090 is dadog 30 FPS sel, de nem azért, amiért a mai játékok zöme, mert szarul van megvalósítva, hanem mert olyat tesz le az asztalra fizika, vagy bármi egyéb terén ami egy mérce sok évre előre..."
Már megtörtént, ott vannak a Path Tracing-et támogató játékok (pl.: Alan Wake 2, Cyberpunk, Star Wars Outlaws, Indiana Jones stb.), de PT nélkül is kaptunk olyan alkotást, ami olyan magasra emeli a grafikai lécet, amit jelenleg semmilyen más játék nem tud megközelíteni és nem véletlen emlegetik páran az új Crysis-nak, ez pedig az Avatar Frontiers of Pandora. Az új Snowdrop olyan szintet képvisel, amit egy UE5 meg sem tud közelíteni, a növényzet pedig egy teljesen új szint, ami évekkel megelőzte korát és korunkat is. UE5 játékokban még hosszú évekig nem fogunk látni ilyen sűrű és interaktív növényzetet.
Szóval az új Crysis-t szerintem már megkaptuk több játékban is és ezek majdnem mindegyike saját, belső fejlesztésű motort használ (Wukong UE5-öt használ, de ennek a látványvilága szerintem egyáltalán nem kiemelkedő, sőt!).
Láttuk tehát, hogy az RTGI az Avatar-nél büntet, most februárban pedig az Anvil motor is megkapja az RTGI-t az AC Shadows-ban.
Az UE5 mindössze még csak bő 2,5 éve van a piacon, így könnyen lehet, hogy azzal is kapunk majd egy új Crysis-t, de kérdéses lesz a performance, ahol közismert tény, hogy az UE5 botrányosan szarul teljesít.Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
T.Peter
őstag
A jatekok ara alig nott az elmult 10-20 evben, es csak azert mert dragabb, nem kell tobbet varni. A fejlesztesi koltsegek teljesen mas szinten vannak. A crunch-ot is vissza kene szoritani, mert tarthatatlan, de annak is penzugyi vonzata van.
Az teljesen jogos, hogy elvezheto allapotban kene megjelennie mindennek. Viszont nem kell mindenert az engine-t okolni. Van amiert lehet, de a legtobb emlitett dologert nem.
A switch szerintem nem jo pelda, 3rd party cimek eleg rosszul neznek ki es futnak. Csak a belsos studiok tudnak kihozni belole valamit, es azt sem elfogadhato frame rate mellett, lasd zelda 2. Plusz a switch mint platform teljesen fuggetlen. Az xbox es a ps, de meg a pc is kozos, ezekrol egyben gondolkodnak a studiok. -
GeryFlash
veterán
Reszben egyetertek, az AMD azzal hogy ennyire szar RT-ben valoban visszafogja/ vissza fogja fogni a jatekipart, mert konzolt ok gyartanak. Azonban ne menjunk el a masik gyarto mellett, akinek koszonhetoen mai napig kapunk 500 dollarert 16GB alatti VGA-kat. Hogy ez miert baj? Mert a GDDR chipek arai emiatt sem csokkennek, es akkor latunk olyan dolgokat hogy 2024-ben a megjeleno 700 dollaros PS5 Pro-ba kepesek ugyanaz a semmire nem eleg 16GB memoriat rakni, amit a konzol rendszer ES videomemoriakent hasznal. Nincsenek varazslatok, ez ma mar nem lenne eleg egy UE5 maxra hajtasahoz, nezzuk mar meg hogy mennyi RAM es VRAM kell egy tisztesseges UE5 techdemohoz. De mivel draga a VRAM koszonhetoen az Nvidianak is ezert nem kapunk tobb VRAM-ot a konzolba. Lehet izgulni majd hogy vajon a 2027 kornyeken megjeleno uj konzolok vajon 32 vagy 24GB memoriabol dolgoznak majd. Ha utobbi akkor felejtsunk el barmilyen minosegbeli ugrast. Es ezeken a dolgokon semmilyen trukk, SSD es egyeb lof*sz nem segit.
Ettol fuggetlenul szanalmasnak tartom a Sonyt is, aki 2024-ben 700 dollarert kepes volt ilyen hardver arulni, gyakorlatialg ugyanazzal a CPU resszel, hogy aztan mindenki elohuzza a meglepodott pikachu fejet hogy jeeee hat cpu bottleneckes is ez a szar, pedig ki gondolta volna. Igazabol kaptak az emberek +200 dollarert egy nagyobb tarhelyet.De ami nagyon tetszik, hogy az TSMC is behuzta a kezifeket Normal esetben, az eredeti utemterv szerint a 3nm-t megkaptuk volna 2021-re, a 2nm-t 2023-ra es 2nm alattit 2025-re, na most ez annyiban modosult toltak mindenen 2 evet, majd most ezt a 2nm-t mar 2026-ra toljak, tehat 3 evet kesik.
Ez van ha nincs konkurencia, mi a francert versenyezzenek magukkal. Az hogy az Nvidia es az AMD is 2019-ben mar letezo (pl Apple A14) gyartastechnologiara helyezi a 2025-s lineupot? Ahogy tettek a 2022-essel is? Persze, hat minek versenyezni ha van egy ceg aki viszi a 90%-ot a masik meg presztizsbol, passziobol es mert nincs jobb dolga alapon gyart valami szart. Katasztrofalis allapotban van a gaming es a tech ipar is, csak hat kit erdekel ha reszvenyek meg szarnyalnak, mert a banyaszlaz utan az LLM orulet hajtja es mindent el lehet adni.Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?
-
T.Peter
őstag
Azota eltelt 15 ev es teljesen mas korulmenyeknek kell megfelelni. Az, ami akkor mukodott most nem mukodik. Egyetlen ertelmes jatekot sem lehet 3 ev alatt elkesziteni, akkor ez meg lehetseges volt es pluszban a koltsegek sem voltak ilyen magasak. Egyedi hardverrel ennyi jatek sem jonne mint most, szoval ezzel te is veszitenel.
A velemenyed pedig szubjektiv a sajat szemszogedbol. Ertem en, hogy nem tetszik az eredmeny, de nem tudom mihez kepest atlagos a grafika ue-vel. Dxr-rel is max akkor kapsz jobb eredmenyt, ha az nv path tracing be van epitve (amit lehet ue-vel is hasznalni, szoval ugyanott vagy), nelkule meg nem jobb, csak masabb. Amellett meg nem kene elmenni, hogy nanite szintu rendszere senkinek nincs vagy nem mutogatja senki.
Az ue-t lehet szidni es erdemes is kritizalni mert ez alapjan fog az epic is javitani azon amin kell, de akkor ezt ertelmes formaban kene megtenni szerintem. Jatekoskent lehet irni az Epic-nek az oldalain, fejlesztokent meg ott az udn, igyekeznek minden visszajelzesre rogton megoldast talalni.[ Szerkesztve ]
-
T.Peter
őstag
Nem hiszem, hogy barki akarna egyedi hardvert, orulnek, hogy nem kell kulon kutatni es tesztelni. Nem segitene a fejlesztes jelenlegi problemain.
Az UE-t atlagosnak nevezni megint csak nem valami objektiv. Mondj meg egy ilyen engine-t amiben ilyen feature-ok vannak. Nincs ilyen. Ha egesz studiok allnak at, akkor inkabb nekik kene hinni, szerintem jobban ertenek hozza. A Hangar 13 sem veletlenul dobta a sajat engine-t es lett az uj Mafia UE 5 alapu.
-
GeryFlash
veterán
Na ezt mentettem, tudom hogy csak pletyka de hogy legyen hova visszaterni par honap mulva. 55-60% az 5090 es 4090 kozott, persze
Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?
-
huskydog17
addikt
Ej számunkra nagyon rossz időpontban lesz. Hajnali fél 4-kor biztosan nem fogok fent lenni emiatt, viszont az AMD és az Intel sokkal jobb időpontot találtak, azokat meg tudom nézni, de a zöldeké túl későn lesz.
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
őstag
A 4090 pl játékok alatt kevesebbet eszik mint a 3090Ti, miközben lénygesen gyorsabb tehát mind a fogyasztása mind a hatékonysága nőt.
Ez pontosan így van, de hozzátenném, hogy a mérete is nőtt minden téren, talán ez az egyedüli hátrány, de én mondjuk ezzel simán kibékülök¯\_(ツ)_/¯
-
yarsley
aktív tag
5090 laptopnál az ár nem számít, mert abból a 3000+ USD-EUR-ból sokkal könnyebb kigazdálkodni a 3GB-s GDDR7 árát mint mondjuk 600-700 dollárból.Mondjuk ha kellóen nagy lyukat hagynak az 5070 meg az 5070 ti között akkor simán el fog férni, csak szerintem hamar ne várjuk csak úgy nyár közepén, amikor már normalizálódik a 3GB-os modul ára.
#46777 deathcrow42:
Nintendónak az a lényeg hogy olcsó legyen, és mivel Samsung fabok nincsenek igazából csúcsra járatva, ezért sokkal jobban megéri ott gyártatni. Még azt is el tudom képzelni, hogy a nagy volumenű megrendelésre kaptak külön kedvezményt (amit TMSC nem adott volna meg egy top node-on)... ne úgy képzeld el, hogy te vagy Thomas azt mész amerre a sin visz. (c) virkir
-
S_x96x_S
addikt
> Kopite szerint nincs tervben ennél a generációnál az Nvidiánál a Super széria.
A Blackwell után évente jönnek az új GPU-k.
“I can announce that after Blackwell, there's another chip. We're on a one-year rhythm,” Huang just said on the company's Q1 2025 earnings call." ( via )
"Until now, Nvidia’s produced a new architecture roughly once every two years — revealing Ampere in 2020, Hopper in 2022, and Blackwell in 2024, for example."Mottó: "A verseny jó!"
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.