-
IT café
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Alogonomus
őstag
válasz Raymond #59598 üzenetére
Az állításom az volt, hogy a kártyában volt 20-30% tartalék a 2019-es megjelenésekor. Ennek a bizonyítására legegyszerűbb nyilván felhozhazni a Call of Duty: Modern Warfare 2 eredményeket, amikben a 2060 Super 1440p Ultra esetén 48-67 állással 40%-kal, míg 1440p Basic esetén 87-120 eredménnyel "csak" 38%-kal kap ki az 5700 XT-től. Az 5700 XT rendelkezett driveren keresztül "mozgósítható" tartalékokkal, míg a 2060 Super nem, pedig 3 éve a bemutatásukkor még nagyjából 5% volt csak kettőjük között.
Szolidabb bizonyítékként 1440p felbontáson felhozható az AC: Valhalla is, ahol 64-79-es állással 23% az 5700 XT előnye, Forza Horizon 5 esetén 95-126 33%, Far Cry 6 84-104 24%. Persze ezek AMD-szponzorált címek.
De Nvidia-szponzorált címekben, mint például a Death Stranding 102-131 eredménnyel 28% a különbség, Watch Dogs: Legion pedig 61-72 végeredményt hoz, ami 18%.Vagyis egyértelműen volt még mit kiaknázni az 5700 XT-ből driverekkel az elmúlt évek alatt.
-
Raymond
félisten
válasz Alogonomus #59602 üzenetére
Amiket leirtal itt most peldakat azok sehol nem azt bizonyitjak amit allitottal:
"Másik oldalról nézve viszont az Nvidia kártya startkor mutatott teljesítményéről tudod, hogy az a maximum, amire valaha számíthatsz tőle. AMD kártya startkor mutatott teljesítménye viszont csak a potenciálja 70-80%-a, ami talán csak egy év múlva fog 100% közelébe érni"
Ezt a driverekrol szolo diskurara valaszoltad hogy az NV kartyaknal nem hoznak ujabb driverek mar semmit az AMD kartyak viszont csak 70-80%-on menek es evek mulva a drivereknek hala erik el a teljes potencialjukat.
Az itt leirt "bizonyitekoknak" semmi koze az allitasodhoz.
Privat velemeny - keretik nem megkovezni...
-
válasz TESCO-Zsömle #59601 üzenetére
Ú de rég láttalak Teszkós zsömi, mian veled úgy mindennap?
Hogy miért füstölt el.S23 Ultra / Watch 6 / Q80T 65" / 14600KF / RTX 4070 S / JBL / S3000 Pro / WH950NB
-
félisten
válasz Alogonomus #59602 üzenetére
Össze vissza beszélsz és vetítesz itt. .
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
válasz Alogonomus #59602 üzenetére
"volt még mit kiaknázni az 5700 XT-ből driverekkel az elmúlt évek alatt"
Csak amire kiaknázzák az erejét arra az a VGA már elavult lesz technológiailag.
RT-be nulla és a fogyasztás/teljesítmény aránya is sok lesz az újakhoz képest.
Lásd 3080 vs. 4080. Szinte ugyan az a fogyasztásuk de a 4080 "kicsit" erősebb.
Már most van olyan cím ami megfektet egy 4080/4090-et mi lesz még év végéig?
Akkor mit akarunk egy ~3 éves VGA-tól pláne driverileg?
A játékokat kéne a hardver-hez optimalizálni gyerekek.... és nem fordítva.S23 Ultra / Watch 6 / Q80T 65" / 14600KF / RTX 4070 S / JBL / S3000 Pro / WH950NB
-
FLATRONW
őstag
válasz Alogonomus #59602 üzenetére
Itt szó sincs a tartalékok kihasználásáról a driver fejlesztéseknek köszönhetően.
Néhány százalékot, mindkét oldalon hoznak játékonként.
Amit látunk az említett játékoknál, az egyszerűen annak köszönhető, hogy jobban fekszenek az AMD-nek.
Mindkét oldalnak megvannak az ilyen játékai. Már az 5700XT megjelenésekor is volt olyan, hogy a sima 5700 30 százalékkal gyorsabb volt, mint a 2060 Super.
Például a 7900xt már a megjelenés napján COD-ban, Far Cry-ban megközelítették vagy meg is előzték a 4090-et, mindenféle driveres maszatolás nélkül.
Nagy átlagban elmondható, hogy a helyzet nem igazán változott 2019 óta. Az 5700 XT akkor is gyorsabb volt 10+ százalékkal a 2060 Supernél, és most is gyorsabb nála ennyivel. -
-
Raggie
őstag
válasz AuraSync #59600 üzenetére
Ez egy részlet der8auer eredeti videójából, ahol egy tudottan hibás RX 7900 XTX-et bekapcsol és kijön a füst belőle(direkt azért vette a hibás kártyát, hogy troubleshoot-olja).
Mostanában mém lett belőle a nagy meghibásodási rátájú MBA RX 7900 XTX-ekre utalva, de emiatt sokan azt hiszik ez egy új kártya amit először beindítanak...
LINK az eredeti videóhoz[ Szerkesztve ]
Clint Eastwood FTW
-
Raggie
őstag
Arra utal a kolléga jogosan, hogy az eredeti állítás az volt, hogy teljesítményben javulnak a kártyák sokat a driverrel.
Itt nem történt semmilyen abszolút teljesítmény javulás, csak a fogyasztás csökkent bizonyos helyzetetkben.
Ez jó, de nincs köze a jelenleg folyó (és szerintem parttalan) vitához...Clint Eastwood FTW
-
-
Ahhha most má értem.
És azzal nem próbálkoztak, hogy PC-be is kiadják ezt a brutál erős CPU/GPU cuccot?
Tehát mittomén aki nem akar nagy PC házat összerakni viszont kellene neki egy konzol erejű PC akkor egy kisebb "dobozba" is összehozhatná ezt?
Sztem ez megint egy fogyó eszköz lenne. Tudod mint egy Intel NUC csak nagyobb lenne kb mint egy Series S.S23 Ultra / Watch 6 / Q80T 65" / 14600KF / RTX 4070 S / JBL / S3000 Pro / WH950NB
-
PuMbA
titán
válasz AuraSync #59621 üzenetére
"És azzal nem próbálkoztak, hogy PC-be is kiadják ezt a brutál erős CPU/GPU cuccot?"
Felesleges, mikor egy ITX házba vehetsz olyan CPU-t és GPU-t, amivel ezt megcsinálhatod most is, de amit HSM ír is fontos. Tehát hogy a Sony és a Microsoft is módosított AMD GPU-kat használ, további speciális hardver egységekkel megfejelve, tehát a PC-s szoftverkörnyezet nem jó hozzá (Windows, DirectX 12 stb.).
[ Szerkesztve ]
-
Petykemano
veterán
válasz AuraSync #59619 üzenetére
Mi volt előtte? A MS PowerPC (IBM) processzorral és ATI videokártyával készült.
A Playstation 3 IBM-Toshiba-Sony kooperációban készült Cell nevű CPU-t és Nvidia gpu-t tartalmazott.Az IBM szerintem 2010-es évek elejére már felhagyott a konzumer processzorok tervezésével. Így maradt az x86, de valószínűleg a Jaguar magok teljesítményét lehetett volna hozni Arm magokkal is.
Ahogy az előttem szólók elmondták fontos szempont lehetett a GPU IP, amivel az Intel pl valóban nem rendelkezett valamirevaló GPU-val.
Az Nvidia nem rendelkezett x86 licenszszel, de szerintem ez másodlagos, mert lehetett volna Arm magokkal is. (Nem kizárt, hogy az Nvidia Shield az Nvidia a konzolok irányába való nevezésének (PoC) egy mellékterméke)Az AMD leginkább CPU-GPU közös címtérrel (Fusion) és ahhoz kapcsolódó víziókkal előzte meg versenytársait. (Nem kizárt, hogy az akkori marketinganyagok a Fusion-ről nem is nekünk fogyasztóknak szóltak, hanem alapvetően a B2B ügyfeleket igyekeztek elsősorban meggyőzni)
Ez a szempont az elmúlt 1 évben látszik változni. Egyrészt az Intel rendelkezik már GPU-val. Lehet, hogy nem a legjobb még, de lehet, hogy házon belül fejlesztett csomagolási rendszerek, a "Fusion" és OneAPI által kínált lehetőségek elég vonzóak lesznek.
És az Nvidia is nemsokára élesben fogja demozni a Grace formájában a CPU architekt leleményességét.A másik szempont pedig az lehetett, hogy sem az Intelt, sem az Nvidiát nem lehetett olyan mértékben kézivezérelni, mint az eléggé legatyásodott AMD-t. Az AMD feltehetőleg jobb ajánlatot adott az árra vagy a rugalmasságra vonatkozólag.
Ez a szempont annyiból változhatott, hogy talán ma már az Intel is lehajolna ilyen lehetőségért. Az Nvidiánál nem látok változást.
Viszont egyre inkább teret nyer a Streaming-Gaming. A Sony tudtommal ezen a területen kissé le van maradva, együtt is működik a MS-tal. A MS cloud gaming viszont erősnek tűnik. Az Nvidia üzemelteti a Geforce Now-t. Félig-meddig talán ellenérdekelt is MS szekerének tolásában. Viszont mivel a Sony ezen a téren le van maradva, így nem zárnék ki a jövőben egy Sony-Nvidia együttműködést, aminek része az, hogy a Sony a GFN cloud gaming szolgáltatásra nyergel át és az Nvidia fogja szállítani a konzol hardvert. (Azt se tudom kizárni, hogy ezzel párhuzamosan esetleg az Arm felvásárlásának stratégiai célja a gaming Arm CPU-ra való átterelése lett volna)
[ Szerkesztve ]
Találgatunk, aztán majd úgyis kiderül..
-
félisten
válasz Petykemano #59627 üzenetére
Az Arm az adatközpontok miatt kellett az Nvidiának, a z a zsíros falat, ahogy Grace oda is jön. Játék vonalon marad a Tegra szerintem. Remélem az idén bemutatják az újat. 80 SM verziós Ada-t pletykálnak az új Switchnek, ami nagyon odatesz a nagyoknak is, ha igaz.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
T.Peter
őstag
válasz Petykemano #59627 üzenetére
Habar en nem latok bele, de fejlesztoi oldalrol nezve nem hiszem, hogy orulne a szakma ha mindent amit eddig az amd-vel kitapasztalt dobhatna ki. Plusz a ket konzol kozti kulonbseg is megnone ami ugyanugy megnehezitene a dolgunkat. A visszafele kompatibilitas is megszunne. Emellett pedig sok elonyet sem latom a valtasnak.
-
Petykemano
veterán
válasz T.Peter #59630 üzenetére
Egyet tudok érteni a felhozott ellenérveiddel.
És én sem azt mondom, hogy ez biztosan be fog következni.A kérdés nem az volt, hogy fog-e változni az, hogy az AMD a konzol hardver beszállítója és ennek megválaszolása közben körül kell járni a lehetséges alternatívákat.
Nem tudom, mennyire szorít a cipő a sonynál. Csak olvasom, hogy a MS negyedévente felvásárol egy stúdiót és nemsokára jöhetnek a cloud native játékok az Azure-ba. Az ha mondjuk exkluziv nem is lesz, de mondjuk mit lép a Sony, ha a MS úgymond a ChatGPT-vel turbózza fel a játékélményt? Nem előre megírt scriptek, hanem valódi dialógus egy RPG-ben? Egyénre szabott játékmenet?
Nekem úgy tűnik, hogy ugyan a Sony még lehet, hogy több konzolt ad el, de hosszútávú kilátásai a MS-Nak jobbak. Ha és amennyiben így van, akkor a Sony kiszorulhat. Amit vagy.elfogad és ennyi, vagy megpróbál erősíteni, ahol lemaradásban van.
Nem csak cloud tekintetében, hanem az AI vonatkozásában is az egyik ász az Nvidia. A vele való partnerség a sonynak cloudot, és AI know-howt hozna, az nvidiának pedig a PS-t vásárlókat és előfizetőket.Ez persze továbbra is csupán egy szcenárió arra nézve, hogy milyen feltételek/körülmények mentén látnám elképzelhetőnek a konzol hardverbeszálllító váltást. Lehet, hogy a sonynak egész más tervei vannak.
Találgatunk, aztán majd úgyis kiderül..
-
X2N
senior tag
válasz Petykemano #59631 üzenetére
Csak 2 dolgot felejtettél el.
1. Nvidia is csinálhatna éppenséggel handheld/asztali konzolt saját hardverrel.
Elnézve a steam deck népszerűségét még akár sikeres is lehetne.
2. Ahogy Linus Torvalds is mondta: Nvidia is the sigle worsth company we've ever dealt...
Közös termék a Sony-val háát..szerintem kérdéses .+1 Cloud akkorát bukott hogy csak na. Ezt senki nem fogja bevállálni mégegyszer. AI az új buzzword, ettől nem lesznek jobb játékok.
[ Szerkesztve ]
Launch code for russian nukes: 97 99 116 105 118 97 116 101 32 100 101 97 100 32 104 97 110 100
-
S23 Ultra / Watch 6 / Q80T 65" / 14600KF / RTX 4070 S / JBL / S3000 Pro / WH950NB
-
PuMbA
titán
válasz hokuszpk #59635 üzenetére
Új hozzászólás akart lenni.
CPU & GPU Scaling Benchmark, Core i3-13100 vs. Ryzen 5 5600: Sub $150 Battle
RX6950XT veri a 4090-et ezekkel a CPU-kkal. AMD VGA-khoz tényleg elég gyengébb proci. Ray tracing alatt a 4 magos Intel decimálja a 6 magos AMD-t
[ Szerkesztve ]
-
Hát aki 1080p-re vesz 4090-et az jó nagy barom.
Ezeknek a teszteknek semmi értelme így, tesztelje 1440p-be vagy 4K-ba amire valóak azok a VGA-k.
Ja hogy ott már nincs akkora különbség.
Abu:
"Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak"
Te melyik vagy?S23 Ultra / Watch 6 / Q80T 65" / 14600KF / RTX 4070 S / JBL / S3000 Pro / WH950NB
-
PuMbA
titán
válasz AuraSync #59637 üzenetére
1440p-ben nem vagyok biztos, mert sok tesztben még ott is proci limites volt. 4K-ban volt csak tisztán VGA limites a 4090. Kár, hogy nem mérték ki ebben a felbontásban is a Hardware Unboxed-osok. Ennek a tesztnek majd a közép kategóriás kártyákkal lesz még jelentősebb eredménye.
[ Szerkesztve ]
-
Erre csak 3 dologgal tudok reagálni:
-Optimalizálatlan játékok.
-Lefizetett fejlesztők.
-Rosszul használt hardverek. (a fent mutatott 1080p 4090 esete)
Ha a konzolokon meg tudják oldani az optimalizálást akkor PC-re is meg lehetne csak nem 20 percig tartana hanem 1 hónapig mivel többféle összeállítás van.
Elég lenne úgy optimalizálni hogy:
AMD CPU + AMD VGA
AMD CPU + NV VGA
Intel CPU + NV VGA
Intel CPU + AMD VGA
Ha egy játék képes felismerni azt, hogy DLSS3-re kifejlesztett VGA van a gépbe akkor mást is fel tud ismerni és annak a hardver optimalizációját használná.
Amúgy meg teljesen mind1. Az NV optimalizált gémeket 4K-ba visszük végig az AMD-re optimalizáltakat meg 1440p-be nagy kunszt.S23 Ultra / Watch 6 / Q80T 65" / 14600KF / RTX 4070 S / JBL / S3000 Pro / WH950NB
-
Igen és 2023-ba valszeg valaki egy 5 éves CPU-t fog majd használni játékra modern VGA mellé.
Na ez a baj... hogy aki nem akar fizetni a teljesítményért panaszkodik hogy rosszul megy a játék.
Itt sokan tényleg azt hiszik, hogy ma még mindenre elég egy GTX 1080.
Hát nem. Még a 3060Ti-vel is csak 1080p-ig merészkednék el 2023-ban.Nem kell itt 10 évre visszamenőleg optimalizálgatni. Akinek nincs pénze modern PC-t venni az vegyen új konzolt, kb ugyan azt a grafot fogja kapni meg FPS értéket mint a sok sok éves PC.
2023-ben az az évi meg az az előtt évi hardverekhez optimalizálja az új játékait.[ Szerkesztve ]
S23 Ultra / Watch 6 / Q80T 65" / 14600KF / RTX 4070 S / JBL / S3000 Pro / WH950NB
-
PuMbA
titán
válasz AuraSync #59642 üzenetére
Muszáj figyelembe venni a játékos társadalom többségét és ott húzni meg a minimum gépigényt, ami ma GTX1060 6GB / GTX1070 és RX580. Steam felmérésben jól látszik, hogy a legnépszerűbb VGA-k azok ezek körül vannak és a játékfejlesztő nem akar elesni az eladásoktól és profittól. Hiába vesz valaki 4090-et, a játékokat nem teljes mértékben arra optimalizálják, hanem a középkategóriára, mert ugye a konzolokon is jól kell futniuk és a konzolokban szintén RX6700 10GB / RTX3060 szintű VGA van.
[ Szerkesztve ]
-
Petykemano
veterán
válasz AuraSync #59637 üzenetére
Ez egy CPU teszt volt, nem pedig GPU.
Azért használták a 4090-et és azt is 1080p-n, hogy a CPU-k összehasonlításából minél inkább kiszűrjék a GPU limitet. Ha 4K-ban mérnek, ahol a GPU limitál, akkor lehet, hogy szépen le lehet olvasni a grafikonról, hogy a 4090 mennyivel gyorsabb, mint a 6950XT, de nem biztos, hogy kiderül, hogy melyik processzort érdemes venni.(Régebben volt olyan technika is, hogy 720p-ben mértek és abból próbáltak következtetni a processzor jövőállóságára. Csak ezt a 720p-s tesztet ritkán végezték el belépőszintű processzorokon, amitől nem is várja senki, hogy jövőálló legyen.)
Ez persze nem nagyon változtat azon, hogy amit Abu többször elmondott, hogy az AMD driver overhead-je kisebb, vagyis kisebb terhelést tesz a CPU-ra, és ami ebben a tesztben megmutatkozik, annak a valós felhasználási körülmények között kevés valós hatása van.
Egy 4090 mellé ugyanis nem fogsz belépőszintű processzort venni, a 4090-et kevéssé valószínű, hogy 1080p-ben fogja használni a többség (kivételek lehetnek) és a belépőszintű proci mellé valószerűen vásárolt 1080p-ben használt középkategóriás GPU esetén pedig megintcsak nem fog érezhető hatást kifejteni a kisebb driver overhead.
Találgatunk, aztán majd úgyis kiderül..
-
Busterftw
veterán
-
Z_A_P
addikt
válasz AuraSync #59642 üzenetére
egy 5 éves CPU-t fog majd használni játékra modern VGA mellé.
Miert ne, ez lenne a PC ertelme, nem kell kidobni es ujat venni, eleg komponensenkent bovitgetni, csak amit epp kell.
2023-ben az az évi meg az az előtt évi hardverekhez optimalizálja az új játékait.
Itt van pl csak az intel legujabbja: [link] Meg sem szamolom mennyu cpu..OK
-
Petykemano
veterán
válasz Yutani #59647 üzenetére
Csak érdekességképpen küldöm, mert felmerült bennem is a kérdés, hogy jójójó, helytállni biztos helytáll egy midrange GPU mellett egy 5 éves CPU, de mit adna hozzá egy új CPU?
Elég érdekes. zen2-ről zen3-ra nem feltétlenül érdemes váltani, bár van különbség. De a 5800X3D baró! Ha az AMD ledobna egy 7600X3D-t (vagy legalább 5600X3D-t), akkor azzal igencsak nagy népszerűségre tehetne szert.
Találgatunk, aztán majd úgyis kiderül..
-
Yutani
nagyúr
válasz Petykemano #59648 üzenetére
Nekem R5 3600 van 3060 Ti mellett. Dying Light 2-vel játszom mostanában, RT be van kapcsolva. Afterburner szerint a CPU elvan ilyen 35W fogyasztással, míg a VGA teker 160W-on. Előtte 1600X volt, és szerintem az is kiszolgálná ugyanígy a 3060 Ti-t, mert nem a CPU a szűk keresztmetszet.
Igazából csak azt akarom mondani, hogy persze, hogy jó az 5800X3D, de egyrészt egy közepes VGA-hoz overkill, másrészt meg ha azt nézem, hogy 40k körül van újonnan R5 3600, míg a legolcsóbb új 5800X3D 157k, legfeljebb 50% teljesítmény többletért nem fizetnék háromszoros árat. Persze ez mind az én szemszögömből nézve igaz, másnak más preferenciái vannak.
#tarcsad
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- WoW avagy World of Warcraft -=MMORPG=-
- Házimozi haladó szinten
- Milyen TV-t vegyek?
- Honda topik
- No Voice in the Galaxy
- gban: Ingyen kellene, de tegnapra
- KERÉKPÁR / BRINGA / ALKATRÉSZ beárazás
- Call of Duty: Modern Warfare III (2023)
- VR topik (Oculus Rift, stb.)
- Poco X6 Pro - ötös alá
- További aktív témák...