-
IT café
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
X2N
őstag
válasz
DudeHUN #49494 üzenetére
Ingyen is megoldhatná az nvidia ezt a problémát akár ma, annyit kellene tennie hogy kiadnak egy bios-t ami visszaveszi az összes kártya teljesítményét amin ilyen csatlakozók vannak. Ha 100% biztosra akarnak menni akkor 275W-nál nagyobb fogyasztást én nem engednék meg egyik kártyának se. De ez csak az én becslésem.
Nekem úgy tűnik így a szétégett csatlakozókat nézegetve amit a napokban linkeltetek hogy ahhoz hogy egy 300W-vagy kisebb teljesítményű kártya leégjen 2db érintkezőnek kell 2 külön kábelen meghibásodnia, 300W felett viszont már elég egyetlen érintkező meghibásodása is. Ennyi hibatűrése van a csatlakozónak/aljzatnak, ekkora teljesítmények esetén.
Feltűnő az is hogy általában valamelyik szélső érintkező szokott leégni(a vezeték súlya miatt és mert ott hat legnagyobb erővel a vezeték az érintkezőre az önsúlya és a hajlítás miatt, ez persze megint az én elméletem) , ezt a kettő érintkezőt én videokártya oldalon mindenképpen monitoroznám árammérő sönttel.
Attól hogy elsőre jól bedugod a csatlakozót, az még nem jelenti azt hogy idővel az érintkezőknek ne romlana az érintkezési felülete, már magától a melegedéstől...
-Kis érintkezők könnyebben deformálódnak a hő hatására, ami gyengítheti az érintkezési pontot.
-Hőfelhalmozódás: Kis érintkezőn nagyobb az áramerősség fajlagos hatása, ezért gyorsabban melegedhet túl, ami oxidációhoz vagy forrasztási hibákhoz vezethet.és akkor még nem is beszéltünk olyan környezeti dolgokról mint:
Kisebb érintkezőknél a felületarány nagyobb a térfogathoz képest, így a korrózió gyorsabban károsítja a vezetőképességet.
Magas páratartalom esetén apró érintkezők könnyebben veszítenek a vezetőképességükből, mivel a vékony oxid- vagy szennyeződésréteg teljesen elszigetelheti a kontaktust.
Nyilván nem tökéletes a régi 8 pines szabvány se, mert ott csak 3db vezeték van bekötve a tápfeszültségnek de az majdnem 200%-osan túl van tervezve. A processzoroknál a 8 pines vagy szervereknél a 8 pines vga csatlakozók meg más bekötést használnak ott ki van a teljes csatlakozó használva és 4 vezetéken szállít teljesítményt a csatlakozó, vagy ha már a régi 6 pin-es megoldást nézzük az is van olyan jó mint az újabb 8 pines.
[ Szerkesztve ]
-
válasz
DudeHUN #49483 üzenetére
Majd azt én eldöntöm mit csinálok és gondolok a tápok védelméről és a csatlakozások ellenőrzéséről.
Az hogy nem tudsz értelmezni az nem az én hibám.
Azt látsz bele a kommentembe amit akarsz,de tudtam , hogy a fanboy irányba viszed el a témát és ebből a szemszögből értelmezed a hozzászólásaimat.
Az Nvidia ezt elbaszta. Nincs ezen mit vitatkozni, de ezt leírtam neked 3x.Ez nem mentesíti semmi alól a szabvány alkotóit amit nem így kellett volna kiadni. Szükség van arra hogy ez meg legyen támadva,de kell hogy az új verziós csatlakozások is elfüstöljenek a keresetek beadásához.
A többi meg a te értelmezési problémád.[ Szerkesztve ]
-
válasz
DudeHUN #49476 üzenetére
Minden kommentemben azt keresed hogy az Nvidiát védem.
Én leszarom azt most hogy velük mi lesz, abszolút nem érdekel. csak a háborgás mellett gondolkoz reálisan egy kicsit hogy ez az Nvidia a kártyán túlmutat mert évekig ez a csatlakozó lenne a szabvány és ha az szerinted normális, hogy két rácsatlakozás között ugyan azon a rendszeren a szálak terhelése végeletesen eltér( akár 100-200%) az gáz.
Jó lenne néha kicsit előrébb is látni.
Azon én túlvagyok hogy az Nvidia nem védte megfelelően a kártyáit , ez gáz nagyon.A Cél az lenne ha már ez megtörtént akkor ne lehessen késöbb ebből probléma és gond és egy ilyen szabvánnyal ahol rohadt könnyel dughatsz be rosszul csatlakozót meg a mérésnél egy lehúzás után megfelelő a szálak között eloszlás ami elötte meg nem volt jó.
( Andreas mérése)
Ha ez is szerinted az Nvidia hibája az egy baromság, hogy majd mérned kell a szálak terhelését hogy jól csatlakoztál rá a kártyára vagy a tápra az meg ok.
A tápra is kellett volna védelem ha már új ATX 3.1 szabványt is hoztak. nem került bele.
( leszarom mennyire idegellek) azt kellene felfognod hogy a szabvány szar, és az nem megoldás hogy majd az Nvidia kártyában le lesz védve az, ha szar a csatlakozás és a szabvány.
Az egy más téma, nem kell Nvidiát venni erre ennyi a megoldás de ettől még a szar itt marad ebben a szabvány formában.[ Szerkesztve ]
-
válasz
DudeHUN #49471 üzenetére
Az Nvidia hozzáállássa is problémás, hogy nincs megfelelő védelem, de egy szabványnak sem így kellene működnie.
A tápgyártók felé is előírást kellene tenniük hogy a kilépő feszt is szálanként szabályozza maximumban és monitorozza, én ezt alapnak gondoltam. Vagy kukázzák a fenébe akkor és térjenek vissz az RTX 3000 nél hazsnált megoldásraa zöldek, probléma mentes volt, szabvány nélkül...
Amúgy lehet tudjak is,de ha a PCISIG szerint akár 1300 W( nem hivatalosan) biztonsági ráhagyással egy 6 szálas csatlakozón akkor az bizony közel 20 Ampert feltételez, amit tudunk hogy orbitális ferdítés.[ Szerkesztve ]
-
válasz
DudeHUN #49468 üzenetére
Most ezzel én mit kezdjek vagy miért írod ezt most nekem?
Az esetek miatt írtam, mert nem kerültek nyílvánosság elé még azok.
Minél több kell hogy el lehessen indulni és szülessen megoldás.
Szükség lenne egy esetre, ahol nem ez a régi szabványos kábel olvad meg, hanem az új, mindegy melyik oldalon , hogy lehessen bojkottálni a PCISIG oldalán is az egészet.Redditen is ezt várják, mert inditványt akarnak beadni.
Le akarják korlátozni / csatlakozó. értem hoyg az Nvidia,de a szabványnak nem így kellene működnie, ott a kártyának nem adhatna át egy szálon ekkora feszt. Ezts enki nem fogja majd nézni meg tudni hogy ezen a kártyán van védelem ezen nincs, ráadásul a 4090 nél minden márka árintett volt szinte.Ha az összes tűn megy át a 600 watt sincs megfelelő biztonsági ráhagyás , ez gond.( PCI SIG szerint 1300 W is átmehet és van bőven az új csatlakozó szerint, közben meg megnézték,és pár országban azzal a keresztmetszet átmérövel egy házon belüli fogyasztót sem köthetsz rá, mert előírás szerint nem felel meg.. ha pedig egy 400 wattos áramfelvétel is problémát okoz az meg vicc.
[ Szerkesztve ]
-
Kajoszbobber
lelkes újonc
válasz
DudeHUN #49464 üzenetére
Roppant mód érdekel hogy az 5080 esetén mi lehetett a bibi. Írt neki a kommentek közt gamers nexus hogy átveszi a cuccokat és kivizsgálja az esetet tápot, vgat, kábelt mindent. Ugyan a VGA nem sérült de ez elég ciki, 80as kartyaknal nem mondható el hogy elrugaszkodott fogyasztás és terhelés lenne.
[ Szerkesztve ]
-
válasz
DudeHUN #49325 üzenetére
Az FE kártyára gondolsz, mint sprórolás? Lehetséges hogy az érintett,de ha jól tudom több gyártó épít a gyári nyákra és CB is ezt mérte, náluk nem volt gond.Kifejezetten jó volt az eloszlás.
Az Asusnál 12 V 2X6 tal a felé mérték 10 ampert mint a CB az FE esetén.
igazából meg kell várni több mérést, szerintem ez nem ennyire egyszerű " hater " okfejtés.
Erre majd Igor fog rávilágítani azt gondolom mert ő a mestere ennek.[ Szerkesztve ]
-
válasz
DudeHUN #49314 üzenetére
Nem, a következtetés teljesen rendben van, tök igaza van az 5090 hez egy darab nem elég. 2db 12V-2X6 kellene hozzá vagy 2x 12VHPWR.
Nem fillérbaszás, ez ezt nem lehet megoldani normál csatlakozóval, egyszerűen túl van terhelve egy szálon a feszültség, ehhez 2 darab ilyen csatlakozás kell.
Az 5080 hoz elég lesz,de ezzel valamit kezdeniük kell ez a szabvány nem fog így működni 500 W felett.[ Szerkesztve ]
-
Devid_81
félisten
válasz
DudeHUN #49270 üzenetére
Ezt igy villanyszerelokent azonnal megmondom, hogy 20A-hez 2.5mm kabel kell, nahmarmost 12x2.5mm vezetek igen vadul nezne ki a csatlakozon
Arrol nem beszelve, hogy a sodrott vezetekbol 12db nem egy egyszeru hadmuvelet hajtogatni ide oda.
Es az egy dolog hogy a vezetek 2.5mm de ahhoz a erintekzonek is tudnia kell a 20A+ kulonben kiolvad a helyerol.
Ha mar ennyi vezeteken at van etetve az a VGA akkor egyenletesen kellene elosztani a terhelest.
Ezek annyira alap dolgok hogy szvsz altalanos iskolabol kiesve is sokan tudjak.
Ehhez kepest valaki ezt nem tudja de VGA PCB-t tervez.
Es mar nem is az elso eset, a 4090 ott volt rossz peldanak de meg mindig itt vagyunk -
X2N
őstag
válasz
DudeHUN #49270 üzenetére
Vannak bajok ha már az "enthusiast" usernél is égnek a csatlakozók. Long story short: ModDIY kábel égett le amit már előzőleg is használtak problémamentesen egy 4090-essel. Rendesen be volt dugva...minkét oldalon szétégett a csatlakozó, a kábellel együtt.
[ Szerkesztve ]
-
Quadgame94
őstag
válasz
DudeHUN #49010 üzenetére
Az 5070 Ti az a Ti Super és 4080 között lesz ez az ért szinte biztos. Na most ha csak az 5070 Ti-t tudja a 9070 XT akkor a 150 dolláros aláárazás már eléggé combos lenne. Persze a fanboyok akkor is NV-t fognak venni.
Itt van jó pár ember akinek féláron is adhatná ugyan azt a teljesítményt az AMD ugyse fog azt venni.
Emlékszem a 6700 XT konkrétan olcsóbb volt sokáig és mégis a 3060-at vette sok ember
[ Szerkesztve ]
-
Devid_81
félisten
válasz
DudeHUN #49001 üzenetére
Nagyon meglepodnek ha $500 lenne, inkabb $600-at lonek be neki es max kellemeset csalodunk innen.
Hozzateszem ha valoban 4080/S szinten van raszterben es legalabb 4070Ti/S RT-ben akkor a $750-es 5070Ti ellen nyero lehetne $600-ert is boven.Szerk valosagban inkabb ugy tudom elkepzelni, hogy 4070TiS raszter es 4070S RT szintet fog csak tudni kb $599-ert.
[ Szerkesztve ]
-
válasz
DudeHUN #48148 üzenetére
hát igen,de nekik a professzionális sorozat is megéri majd a maga 96 Gigás verziójával. Ha azonos áron lenne igazából nem nagyon mondanék rá negatív dolgot,de így nem látom sok értelmét. Igazából ez nekem tényleg egy Titan szériás kártyának tűnik. Kimaxolták , jó drága, egyedi hűtés aztán kész. A DLSS4.0 elég jó de a framegen nem hoz semmi csodát, a tesztek szerint nem 200 FPS a 4x50 FPS ez látszik. Szóval erre nem lehet tárhúzni semmit.
Az 5070 meg 12 GB vrammal megint minek.
Az 5080 és az 5070 ti talán nem lesz rossz azonos áron ahogy nézem ezeknek talán lehet értelme.[ Szerkesztve ]
-
GeryFlash
veterán
válasz
DudeHUN #46954 üzenetére
Tisztaban vagyok vele, de a Zen2 es Zen3 kozott nem lett volna ilyen problema. Ez szimplan szarragas volt a Sony reszerol.
Hat nem tudom, nekem nagyon nem az a percepciom hogy a piac, beleertve jatekosok es reviewerek olyan nagyon elegedettek lettek volna a PS5 Pro altal nyujtott tobbletteljesitmennyel. Lasd azok a jatekok amik csunyabbak vagy rosszabbul futottak PS5-n. Persze azok egyedi anomaliak is voltak/lehettek, de olyan igazai combos elorelepest nem igazan lehet mondani a Sony altal bemutataskor demozott jatekokat leszamitva.Igazabol a pozitivabbak kozul legtobben pont azt magyaraztak, hogy a 200 dollar plusz talan megerheti a nagyobb tarhely. Nem a plusz teljesitmeny.
-
3L1T3
addikt
válasz
DudeHUN #46953 üzenetére
Többszőr volt régió allokáció változtatás és pozitív irányba, mert nem adták el más régiók sem az odaszánt készletet. Hidd el, hogy nem úgy teljesít a PRO ahogy azt gondolták vagy tervezték. Tudom , mert látom.
A felhasználók egyrésze vagy drágálja, vagy kevesli a PS5-höz képest a fejlődést.
#46951GeryFlash Meglepődnél mennyire érdemben tudtam volna reagálni, de szerencsére még mindig megvan a lehetőségem arra, hogy annak a hozzászólására reagáljak akinek szeretnék.
[ Szerkesztve ]
-
GeryFlash
veterán
válasz
DudeHUN #46947 üzenetére
Az ugye megvan, hogy a CPU upgrade (ami igazabol ZEN2 --> Zen3) arra kellett volna, hogy mehessen a 60FPS? Semmilyen architekturalis anomalia nem szarmazott volna belole, siman ami nem ment eddig 60FPS-sel (vagy csak perfomance modeban) PS5-n az mehetett volna a PS5 proval 60 FPS-ben (vagy quality modeban 60FPS-sel). Ehelyett a meglevo CPU-n huztak kb 10%-ot, ami pontosan a szarnak egy pofon esete volt, semmivel nem lettunk elorebb, igy igazabol az erdemben fejlodo GPU resz is hiaba erosodott.
-
válasz
DudeHUN #46947 üzenetére
Egy Pc-n ezer éve létezik az options fülecske, pontosan mindenki be tudja állítani a grafikát PC-n és a konzolok szintje az kb pont az általad leírt gépen hozható .
Ritkán van szükség ennél erősebb hardverre ahhoz hogy konzol minőségben játszhass DLSS vagy FSR mellett.
DF folyamatosan készíti az elemzéseit erről , bárki megnézheti.
Nem a konzolokkal van baj egyáltalán, hanem hogy az a szint meg némi plusz amit az Nvidia bemarketingel jelenti jelenleg a játékipari szintet,miközben elméletileg a hardverek árai és tudása magasan ez fölött van és kellene hogy legyen. Ha Nvidia nem erőlködne a szar RT-meg egy két dolgon igazából nagyon semmi más nem lenne csak magasabb textúrák PC-n...[ Szerkesztve ]
-
válasz
DudeHUN #46676 üzenetére
5070Ti simán a 4080 Super szintjén lesz a spec alapján, ebben nincs kétségem, csak akkor legyen egy 800 dolláros ár max.
5070 meg a 4070 Super-Ti szintjét hozhatja, 12 giga rammal… szal ott 500 dollár kéne legyen az msrp.
Csakhogy nem lesz 300 dollár gap az 5070 - 5070Ti közt, szal vagy 600/800 lesz, vagy 500/700
És innentől kb. fogadni mernék, hogy nem kapjuk meg az 500/700 kombót, hanem a drágábbik opció lesz
[ Szerkesztve ]
-
válasz
DudeHUN #45631 üzenetére
Igen most amit utoljára olvastam róla ( ha már találgatós topik) az egy jó kis cikk volt. [link]
Az Nvidia írt állítólag egy teljesen új egyedi API-t a Nintendonak a Switch 2 höz és a hardvert most kifejezetten ehhez gyárották, az első Switch-el ellentétben
Az APi amit majd bevetnek+ Multimédia motor ami át lesz emelve az Ada-ból( lehetséges hogy a framegen miatt).lesz benne egy speciális hardver ,FDE, ( dekompressziós blokk, mint a PS5 ben).
Pl egy butított RTX2050 laposhoz képest valószínűleg képes lesz jobb minőségben futtatni játékokata fenti cikk szerint.[ Szerkesztve ]
-
válasz
DudeHUN #45629 üzenetére
Volt anno róla cikk, hogy nagyon sokat tárgyaltak a Nintendoval, hogy maximalizálják ki a tudását a gépnek és engedjék meg ,hogy megtolják a hardvert de aNintendo üzletpolitikája nem erről szól, egy megfizethető és olcsó rendszert akartak.( vagy nem akaratak rajt bukni inkább)
Amúgy szerintem nem lesz gond ezzel a hardverrel, állítólag az UE5 elég magas grafikával szépen fut rajt.[ Szerkesztve ]
-
X2N
őstag
válasz
DudeHUN #44050 üzenetére
Nekem 4K 24" monitor van, sokkal szebb és élesebb a képe mint bármi más monitornak a piacon. 200%-os resolution scale-el megy a windows, a betűk gyönyörűek. Játékokban 4x részletesebb képet gondolom nem kell magyarázni, amikor egy fps-be megnézed a fegyver távcsövet az tényleg kör alakú, nem csak egy kör alakú valami pixelekből kirakva. Élsimítás, TAA nem kell, mert minek. Viszont a képfrissítés lehetne gyorsabb is már ilyen felbontásra, egyszerűen a nagyobb felbontás miatt jobban észreveszed a részletek elvesztését a 60Hz miatt, meg hát a lassú ips panel...ideális persze 8K monitor lenne 32"-es (300ppi, emberi szem felbontóképességének határa) felbontással oled kijelzővel minél nagyobb képfrissítéssel 500-1000Hz...
PuMbA-ég és föld a különbség. 4x részletesebb képet kapsz, ne szórakozzunk már. Ez nem ugyanaz mint 60Hz- monitorról felváltani 144Hz-re ami csak 2.4x-es ugrás képfrissítésbe, de ugyanúgy ugyanolyan gagyi panel van a monitorodba... Azt meg csak halkan teszem hozzá hogy úgysem tudod kihasználni a nagy képfrissítést ha nem kifejezetten competitive címekkel játszol, oda meg kell a tn, az meg rosszabb képminőség.
[ Szerkesztve ]
-
PuMbA
titán
válasz
DudeHUN #44050 üzenetére
Így van. Egy 4K 60Hz-es monitor, amint megmozdulsz részlettelenebb és elmosódottabb képet fog adni, mint a 1440p 165Hz-es monitor, természetesen több fps-sel. Minél több Hz, annál jobb a mozgás közbeni felbontás
Az UFO Test-tel kiválóan megfigyelhetjük saját magunk ezt a jelenséget.
[ Szerkesztve ]
-
t72killer
titán
válasz
DudeHUN #43827 üzenetére
Az országos átlag nem jó mutató, amikor közben párhuzamos folyamatként egyes régiók totál lecsúsztak a menő helyekhez képest. Ez a "shrinkflation"/bújtatott minőségi infla ingatlanos változata. Az alap problematika, h a házad árát mennyi idő alatt termeled ki max 30km ingázásnyira található melóból.
#43829: a nettó bérbek is minimum 3x annyinak kéne lenni.
[ Szerkesztve ]
-
válasz
DudeHUN #42759 üzenetére
Én az adott platfromhoz és CPU hoz között IGP ajánlgatásnak nem látom értelmét még egy belépő játékos kártyával szemben, mert nem egy kategória még a legjobb IGP sem ezzel főleg a mai árak mellett.
A 3050 lesz 65-70 ezer foritn egy pár éves kompett használt PC 50 ezer forint, minimál táppal, 350 W van az enyémben. ( szerencsére ez adott.) ennyiből lesz egy felsőkategóriás media lejátszóm ami gyorsabb mint bármelyik media player és lesz egy IGP nél lényegesn gyorsabb alkalmi játékos platformom, WIndows 11 mellett , legalább 5 év driveres támogatással minimál hanggal és fogyasztással.
Én örülök neki,ez van.[ Szerkesztve ]
-
válasz
DudeHUN #42756 üzenetére
És hogy tegyem bele az IGP-t azzal az adott CPU val az 6+ éves Inteles alaplapomba ?
Mert itt annyi hogy az1050 kivesz ez betesz aztán kész még a táphoz sem kell nyúlnom. Kiépített kis öreg PC a TV/ proji mellett . majd most fogok néha megint nagyképen játszani FHD-n
Nincs szükség AV1 re sem a mozihoz sem a játékhoz.
Az mellett az az IGP nem lesz alkalmas ilyen szintű alkalmi játékra, nem lesz Nvidia szintű driveres támogatottsága és tudása .
Ez rétegigény, rétegkártya. egy kicsi szegmenst tölt be amibe évek óta nem érkezett semmi igazán értelmes.
Könnyű felhozni az IGP-t csak az továbbra is annak való aki új rendszert épít és megelégszik azzal amit az nyújt akár driveres akár teljesítmény szinten.( ott is kérdés milyen CPU-t kell venned hogy megkapd amire vágysz és mennyibe kerül az a platform)[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz
DudeHUN #42656 üzenetére
Ez a kábeltől nem szabadít meg, mert annyi történik, hogy átkerül a csatlakozó az alaplapra. Ugyanúgy be kell majd dugni, csak nem a VGA-n.
#42662 hokuszpk : Ott lesz az alaplapon ugyanaz a csatlakozó, ami a VGA-kon van. Ha esetleg véletlenül leégne, akkor az alaplapot kell kidobni és nem a VGA-t.
[ Szerkesztve ]
-
válasz
DudeHUN #42129 üzenetére
RDNA4 és az Nvidia következő generáció az egy én úgy tudom, ahogy írja Cifu.
Most az RDNA3 = Rx7000 a jelenlegi generáció vagy lehet félreértettem valamit abból amit írtál.
Én úgy látom, hogy előfordulhat az ami az RDNA elött volt ,hogy ilyen Nvidia után félidőben száll be az AMD, pár hónap eltolással.Arra meg lehet reagálni,ahogy már megszoktuk az 1070Ti kiadása óta.[ Szerkesztve ]
-
válasz
DudeHUN #42129 üzenetére
A kövi gen az RDNA4.
Az RDNA5 meg a következő utáni.
Az nVidia meg 2024-ben feltehetően végig húzza a Super családot a teljes szérián (a 4070 és 4080 Super a közép- és középfelső ház, de eddig a kisebbekből is hozott Super-t, csak később), ami elég lehet az RDNA4 ellen.
2025 elején meg jöhet az RTX50 széria, pont azért nem kell sietniük, mert a Super-rekkel is kordában tudják tartani az AMD-t és az Intelt (a Battlemage a hírek szerint szintén 2024 H1, és a csúcs verziótól RTX 4070Ti szintet várnak játékokban).A probléma továbbra is az, hogy az nVidia és az AMD hozzávetőleg azonos bevételt generál (mindkettő kb. 6-6.5 milliárd US$-t a 2023Q4-re), csak éppen az nVidia bevételeinek oroszlánrésze az AI gyorsítókból és a GPU-kból származik, az AMD-nek viszont a procikból.
Egyszerűen az nV többet áldozhat K+F-re a GPU-k terén, mint az AMD, és ennek az a vége, hogy egyszerűen jobban is állnak technológiai szinten.
A fekete ló az Intel lett volna nálam, de a jelek szerint továbbra is az AMD-vel versenyeznek először, hogy a második helyet megkaparintsák...[ Szerkesztve ]
-
gejala
őstag
válasz
DudeHUN #42129 üzenetére
AMD-nél mindig nagy a hév, aztán semmi nem lesz belőle. RDNA2-nél is úgy volt, hogy most már évente jön új arch, reszkessen az NV.
A valóság meg az, hogy quiet quittinget nyomtak a GPU piacon. A minimumot kiizzadják, hogy ringben maradjanak, de semmivel nem veszélyeztetik az NV 80-85% részesedését.[ Szerkesztve ]
-
válasz
DudeHUN #41728 üzenetére
Kipróbáltam, de az FSR-t csak megnéztem, aztán váltottam modded DLSS-re.
Az FSR féle háttérben mozgó dolgok vibrálása már a CP2077-ben is szörnyű zavaró volt számomra, ezért nem is szándékozom AMD-re váltani jelenleg, miközben viszont az nVidia féle VRAM hiány és árazás miatt az RTX 40x0-re váltás sem vonzó számomra.Szóval bőven kipróbáltam az FSR féle opció, Téged nem zavar, szuper, de engem sajnos nagyon.
Hozzá teszem, hogy a DLSS is hosszú idő alatt ért el ide, pl. anno a CP2077-ben is anno olyan ghosting volt járművek esetén, hogy csak na, aztán a DLSS 2.5-el ezt is javították gyönyörűen.
-
válasz
DudeHUN #41730 üzenetére
"Aveumban szvsz az összkép az FSR felé billen mozgásban."
Továbbra is érthetetlen hogy írhatod ezt le, az ellenkezőjét, amit látok ,hisz Itt van a gépemen saját szemmel látom,.
A tesztelt DF videó is ezt mutatja és ezt emelik ki, hogy Pont mozgás közben szar , olyan szellemképes aurát hoz létra amit eddig még nem tapasztaltam másban.
Még esetleg arra tudok gondolni, hogy máshogy működik Nvidia kártyán,más ésszerű magyarázatot nem látok erre.
[ Szerkesztve ]
-
válasz
DudeHUN #41728 üzenetére
Mondjuk azt hozzá kell tennem hogy részben egyetértek veled, az eddigi legjobb minőségű FSR beépítés,de látszik az hogy a DLSS-től elmarad. Aki kipróbálja ebben a játékban is a DLSS-t annak utána már zavaró tud lenni a szellemképesedés és a recés élek minősége.
Szerintem te nem vagy annyira érzékeny rá vagy nem tudom, mert az AMD-t topikban is erre:azt írtad, hogy még így is jobban tetszik neked az FSR mint a DLSS, attól kicsit hanyattestem, mert kifejezetten gusztustalan ahogy kinéz abban a játékban az FSR a mozgó tárgyaknál.
Olyan szellemképet húz sokszor hogy szédülök tőle és ez most nem túlzás, mert miután beszéltünk, kipróbáltam hogy én nézek e be valamit a videós teszt [link] alapján, de nem. -
válasz
DudeHUN #41721 üzenetére
Őőőő... Ezek olyan apró artifactok, hibák, amelyek ott vannak, és rontják a képi élményt. Az, hogy fegyver váltáskor "ott marad" a fegyver szellemképe észre vehető, de az emberek nagy része legyint rá. Pedig ez is képminőség dolog. Ahogy az FSR felskálázáskor a gyengébb textúra minőség, modell minőség is ilyen (ezeket rakta be gV).
Hogy "nem lehet észrevenni" így finoman szólva is fals. Ha össze veted a DLSS-el, akkor látható, szemmel is befogadható. Egyszerűen jobb a kép minősége. Ha játszottál DLSS-el, és utána bekapcsolod az FSR-t, akkor Neked is feltűnne, hidd el...
-
hahakocka
őstag
válasz
DudeHUN #41280 üzenetére
Ez hívják marketing beszívásnak, emellett a márkahűség hosszú távon manapság sokszor nem mindig jó. Én nekem is volt már Intelem is AMD-m is NV m is AMD karim is mindenféle. Lehet még Intel kari is lesz majd ha fel fejlődnek. Ami éppen megéri nem átcsapás marketing és jó ár értéke van.
Joysefke jól leírtad az RT összefoglalód, meg hogy mivel versenyzik az FSR s a DLSS a natív ellenében
[ Szerkesztve ]
-
válasz
DudeHUN #41282 üzenetére
Lehet én fogalmaztam félre valamit hogy ez jött le vagy nem voltam egyértelmű. Mindegy is.
Nem védem őket a vram miatt egyáltalán, sőt.
Twiteren kaptam ez miatt eltiltást is, mert kemény kritikát fogalmaztam mega 4060 Ti- és 4070 Ti vel és az SKU-k elcsalásáról. ahogy itt is ebben a topikban is többször ugyan azt leírtam amit te feljebb : [link]
[link]
Ott nem jött elő az hogy AMD Defense Force[ Szerkesztve ]
-
válasz
DudeHUN #41280 üzenetére
Egyáltalán nem mosdattam Nvidiát. csak az a gond hogy minden hozzászólásomat erre fordítjátok le.
Szerintem egyszerűen leírtam hogy mi a véleményem erről, nem értem mit nem lehet ezen elfogadni. nem azt mondtam hogy a 6700 XT szar vagy a 3060 Ti jó.Nem érzelmi alapon kommunikálok illetve nem azon az alapon amire te gondolsz hogy Nvidia hívő lennek. Kizárólag azt írom hogy ez a Vram mizéria túl van tolva és állandósult joker kártya lett.
A 6700XT-t a legjobb vételnek nyilvánítottam a saját árkategóriájában már többször több topikban.Példa : [link]
kizárólag azt írtam itt , hogy ez nem ennyire egyszerű azért, nem egyértelműen jobb majd ez meg az a jövőre nézve.. [link]EZ felhasználás függő, ki miben fog kompromisszumot kötni. Van aki leveszi a majd médiumra a textúrát aztán boldogan játszik más meg nem kapcsolja be az RT-t aztán boldogan játszik.
AKi 3080 kártyát vesz az nagyjából elérte a maximális RT teljesítményt előző genben ( 6950XT ) AMD szintjén és kap mellé DLSS-t is.
AKI meg 6950XT-t vesz az meg kap tuti Ultra textúrákat cserébe, az RTX 3080 nál ez esetleges lesz .
Nem tudsz ezzel mit kezdeni amit adnak a Gyártók csak a nem vásárlással. Az a mese már elment hogy azért kell AMD-t venni mert akkor megváltozik minden is. Nem fog ez tisztán látszik. Mindenkinek a saját igényeit kell mérlegelni, mire van szüksége és ahhoz venni kártyát. Aki hősködni akar annak sok pénze van vagy elvakult.[ Szerkesztve ]
-
válasz
DudeHUN #41277 üzenetére
egyáltalán nem normális csak nem tudom minek keverd ide a cégeket.
Én a felhasználók szemszögéből beszélek. Úgy van tálalva ez a Vram dolg hogy ez minden alól mentesíti az AMD-t a fos raytracing teljesítmény a szarabb FSR2 minőség miatt és még sorolhatnám miben marad el az Nvidia kártyaitól az előző genben. Pont ez volt lényege a hozzászólásomnak hogy az egyik oldalon a Vrammal és a textúrák minőségében kötsz kompromisszumot a másik oldalon mega DLSS, FSR, RT teljesítmény kuka, mikor a 6800 több RT játékban nem éri el a 3060 ti szintjét. Kinek mi számít de szerintem ezt világosan leírtam hogy attól hogy a 6700XT 12 GB Vrammal megy nem lesz jobb RT ben és DLSS ben mint egy 3060 Ti sajnos.és egy 3060 TI nem fog valószínűleg a jövőben ultra textúra beállításokat használni még FHD-n sem. Mindenki a saját igényeihez mérlegeljen, akinek 140 K van a zsebében.
Én személy szerint használt 3080 10 GB ha RT/ DLSS kell vagy 6700XT, ha ezek nem számítanak.[ Szerkesztve ]
-
válasz
DudeHUN #41274 üzenetére
A lényege az volt a hozzászólásomnak hogy a PC játékok skálázhatóak- jelenleg egyetlen játékban sem látok oltári nagy különbséget egy Ultra és egy high beállítás között, még AMD szponzorált címekben sem ahol erre kifejezetten ráhajtanak hogy 10 + Giga legyen a Vram igény.
Annyira nyúlnak bele ameddig a felhasználó fog belenyúlni, ez a z options fülecske lényege.
Egyetlen játékot sem tudok most aminél az Ultra textúra beállítás lenne az egyetlen járható út .
AMd-t könnyen mentesíti a magas árazás alól az Nvidiara való felelősség áthárítás. Erre leírtam a véleményemet feljebb, AMD lenne a legnagyobb szarban ha 4080- 799 dollár lenne a 4070 Ti meg 500$.[ Szerkesztve ]
-
GEIL
addikt
válasz
DudeHUN #40844 üzenetére
Sokra nem megyek vele....mert 1080p-s kártya és még Raytracinggel és csutka grafikán se tudok beletolni 7,5-8 Gb Vram igénynél többet....Fortnite-ban pl.
De szétmoddolt, texturapackolt GTA5 se teszi tele...az is 8 Gb körül megáll nálam.....
DLSS is módosit a Vram telítettségen,...
1440p-ben már tuti más volna...de oda más kártya kell...[ Szerkesztve ]
-
PuMbA
titán
válasz
DudeHUN #40095 üzenetére
"Az assetek elkészítése és a világok benépesítése ezekkel elképesztően sok meló."
A grafika nagy részt attól függ, hogy mennyi munkát tettek bele a fejlesztők. Amit írtál, God of War: Ragnarok, ami majd ha PC-re megjelenik jól fog futni és kiválóan fog kinézni, mint ahogy a Red Dead Redemption 2 is kiválóan néz ki a mai napig, pedig 5 éves és semmiféle csúcs hardver nem kell hozzá. Az, hogy PCI-E 5.0 SSD jelenik meg vagy RTX5090, attól nem lesz jobb a grafika, vagyis nagyobb részben nem ettől lesz jobb a grafika. Legnagyobb részt a bele rakott munka miatt lesz jó a grafika.
" Plusz ára is van ennek a nagy teljesítménynek. Egyikünk sem tapsikol a 400-500+ wattos kártyáknak szerintem."
Ez a gyártók sara. A kártyákat kiválóan lehet undervoltolni és underclockolni és máris 150W-ot faragtál, minimális teljesítmény eséssel.
[ Szerkesztve ]
-
fLeSs
nagyúr
válasz
DudeHUN #39837 üzenetére
Jó hát eltér a véleményünk.
Sztem bohócot csinál magából ebben a videóban miközben a fanoknak akar tetszelegni, megismételve újra és újra és újra és újra hogy ez a kártya drága és az NV marketingje át akar verni a 3x-es slide-dal.
Ne felejtsük el, hogy ezeknek a yt tesztelőknek a klikkek hozzák a pénzt, több dráma = több klikk. -
fLeSs
nagyúr
válasz
DudeHUN #39810 üzenetére
Elolvasol egy-két review-t a neten, azok is kimondják az "igazat", de nem ilyen stílusban, nem ilyen színvonalon és un-professzionális trollkodó módon.
Ez a "teszt" egy sz@r volt már bocs.
Egyébként meg miközben Steve beszél nekem mindig olyan benyomásom van mintha erőlködne (pl. sz@rás közben), emiatt nehéz végignéznem de ez csak én vagyok.
-
evitiguF
senior tag
válasz
DudeHUN #39810 üzenetére
Az a baj, hogy a tömeg nem így gondolkodik, és venni fogják így is…
tpu és cb komment szekcióban is megy a háborgás, meg itt néhányunktól, de ismerősöket körbekérdezve addig látnak, hogy: most ilyen a piac, most minden drága, ha 400k körül lesz a kártya, abba már beletörődik, és veszi…
és van itt fórumtag, akinek szintén ennyi az ingerküszöbe. -
-
válasz
DudeHUN #38706 üzenetére
Értem amit írsz az EVGA szempontjából,
de nézd meg amiket linkeltem bevételi grafikonok. Asus 2021 ben 500 milliárd Taiwani dollárt ért el és ebből 33 % volt a gaming szegmens ( 50% növekedés 2019 hez képest) MSI 239 % növekedést produkált. Az egész piacot a Krypto felrántotta és ezért bekészleteztek.
2 év alatt 3 évi árbevételt produkáltak . kidurrant a kripto és zuhannak vissza Mindegyik partner. MSI 89 % Asus 75 % 2022 ben eddig. VGA eladásból.
tehát most az kellene hogy Nvidia mindenkinek fizessen pénzt mert bekészleteztek és legyárottak maguknak hatalmas mennyiséget mikor tavaly novemberben már meg volt jósolva hogy tavasszal vége lesz a dolognak?Nvidia zuhant a legnagyobbat amúgy ebben a negyedévben az AMD nagyobb árbevételt produkált mint ők 8 év után előszőr.
-
Hellwhatever
aktív tag
válasz
DudeHUN #38668 üzenetére
Attól tartok hogy ez egy gyanúsan egyoldalúan előadott sztori az EVGA részéről, furcsán mindenre van válasz, igaz néhol kicsit sántít az összkép.
Én arra gondolok hogy feltettek mindent a crypto piac kiszolgálására (érdekes módon amíg ment a szekér nem volt gond a marzzsal), túlrendelték magukat (ahogy az RTX 20-as szériánál is anno) aztán szépen rájuk omlott az egész most pedig magyarázni kell a bizonyítványt.
Nyilván az nVidia-t se kell félteni, amit elmondtak róluk mint partnerekről azok valószínűleg mind igazak.
-
KillerKollar
őstag
válasz
DudeHUN #28578 üzenetére
Támogatni fogják az új kártyák a 4.0-át ez egyértelmű és ezzel nincs is semmi baj. Azzal lenne baj, ha komoly teljesítményveszteséget jelentene ha 3.0 x16 slotban használod a kártyát 4.0 helyett. Ha tesztekben kimutatható egy mérhető különbség ami 1-2% na bumm.
Ha viszont 5-10%-ot elbuknál emiatt az már probléma, mert azt a plusz teljesítményt is kifizeted amikor megvetted a kártyát, de nem tudod kihasználni, ezért lehet, hogy az egyel olcsóbb/gyengébb kártyát veszed amit már nem limitál a 3.0.
Ennek viszont nem igazán örül az NV, mert azon a kártyán jóval kevesebb a haszon. Vagy egyáltalán nem veszel semmit, mert a kártya árát még szívesen kifizetted volna, de amellé még egy új alaplap + proci már sok lenne, ezért tele lesz a tököd az egésszel és veszel 500$-ért egy konzolt.
-
Dyingsoul
veterán
válasz
DudeHUN #27001 üzenetére
Ja van PC-re is... csak erre a sz@rra 2 évente 4-500 ezret elköltök... És még csak nem is cserélek mindent és nem is a legjobbakra...
(#27002) Segal: Lehet, hogy kapja be a bokám.
(#27003) b.: Nem az új nextgen címeket kell nézni hanem azt, hogy mi lesz 3 év múlva... PC: Veheted a következő VGA-t meg a játékokat.
[ Szerkesztve ]
-
válasz
DudeHUN #26259 üzenetére
Hát, ha csak 20 dolcsiva számolunk az 470, majdnem 500 főleg ha jó szokás szerint az a 470 dollár az egy az egybe lesz átváltva Euróra... De 5 éve még az üzemanyag is és a szolgáltatások, raktározás, is olcsóbbak voltak. Meglátjuk.. De 470 dollár is nálunk kb 170-190 K...Mint most egy 2070 super ,remélhetőleg a köv genben ez az összeg pedig egy minimum 2080 Ti sebességű kártyát eredményez...
[ Szerkesztve ]
-
válasz
DudeHUN #16663 üzenetére
Egy alapvetően szoftveres korlátokkal küzdő hardverben. Mert bármilyen hihetetlen azért van hardveres korlát mert nem sikerült átlépni a szoftveres korlátokon.Értsd nincs low level API, olyan szinten mint kellene, és ehhez képest lett csak gyenge ez a hardver,nincsenek alapjaiból írt Dx 12 motorok, csak pár multimilliomos stúdiónak és nincs pénz fejleszteni mert csillagászati összegekre rúg egy A kategóriás játék előállítása.
Az hogy te azt gondolod, hogy pusztán a Zen mag miatt majd az Xbox One x többszörösét kapod és tele lesznek erőforrással szerintem tévedsz.
Minden szóban forgó gyártó tudna adni ( Intel , NV , AMD is)külön külön ennél gyorsabb hardver most ,de komplex és olcsó megoldást nem sok, ezért van ez .
Maga a Zen mag mint megváltóként emlegetést nem értem, mert egy Xboxba ha csak Zen alapú magot tennél ezekhez a grafikai képességekhez nem lenne megváltás senkinek. Az egész komplex rendszer maga majd képes lesz megtöbbszörözni a dolgokat, de az gondolom megint egy speciális fejlesztés lesz, még ha zen alapú is lesz egy Vega Navi párosítással.[ Szerkesztve ]
-
válasz
DudeHUN #16658 üzenetére
Hát az a köze, hogy ugyan ezt hangoztatták a jaguár procikra. Dobhatjuk ki a 980 kártyákat mert felszántja az egészet. Aztán ment a küzdelem a FHD ért meg a 60 FPs ért és kijött már 3 új xbox verzió 2012 óta és 3 új Ps4 verzió.Zen megsokszorozza? ugyan mivel tenné ezt meg elárulnád?Azért mert zen?Itt a korlátot a beépítésre kerülő hardverek ára, fogyasztása és a játékok fejlesztésére rendelkezésre álló idő/ pénz szabja meg . Így is tele vagyunk félkész béta fázisú játékokkal. Koránt sem biztos, hogy AMD lesz továbbra is.Remélem nem, akkor talán előrelépünk, ha NV- IBM lesz újra a konzolokba.
Troll off.[ Szerkesztve ]
-
Jack@l
veterán
válasz
DudeHUN #16658 üzenetére
Két dolog: ez nem amd topic
a konzolokban kis szutyok proci és gpu van és ezután is az lesz(különben akkora méretben felső kategóriás cuccot fél millió alatt nem árulnának). Egy normálisabb gaming PC már sokszor gyorsabb mint a konzolok, az is marad amíg gyártják.[ Szerkesztve ]
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- One mobilszolgáltatások
- AMD Navi Radeon™ RX 7xxx sorozat
- Napok óta legyőzhetetlen a 32 GB-os új Radeon pletykája
- GoPro Hero 13 kamera: felkészült az akcióra
- Speciális hővédelemmel bírnak az ASRock nemrég bemutatott tápjai
- PROHARDVER! feedback: bugok, problémák, ötletek
- Path of Exile 2
- Háztartási gépek
- AMD Ryzen 9 / 7 / 5 9***(X) "Zen 5" (AM5)
- QNAP hálózati adattárolók (NAS)
- További aktív témák...