- OpenWRT topic
- Media Player Classic és Home Cinema (MPC-HC)
- Adguard Premium (Android, PC és egyéb rendszerekre, valamint böngészőkhöz)
- Béta iOS-t használók topikja
- Rendszergazda topic
- Linux - haladóknak
- Telekom otthoni szolgáltatások (TV, internet, telefon)
- Információbiztonság, kiberbiztonság, adatvédelem
- Kína miatt izzad a német robotipar
- Rejtett díjak, nehéz lemondás: az USA pereli az Adobe-ot
-
IT café
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
szmörlock007
aktív tag
"figyelembe véve , hogy Intel mögött ott áll teljes mellszélességben ( ha nem is hivatalosan ) Trump is."
Mondjuk ez szerintem teljesen logikus, én legalábbis ugyanezt csinálnám. Az intel jelenleg az egyetlen amerikai cég fejlett gyártástechnológiával, nem mellesleg hatalmas befolyással a piacra. Miután kína is elkezdte szórni a milliárdokat a tech iparba, az usának jól jön, ha van egy ilyen erős vállalata.
-
Mumee
őstag
Nem csak én gondolom így, direkt írtam hogy GamersNexus is hasonlóan fogalmazott csak nem ennyire direkten én meg csak levezettem.
Épp ez az, hogy ha van 85-90e-ed egy 1660 Super-re vagy 80e-ed 1660-ra, akkor már bőven inkább 105e-ért 5700 alattuk meg csak a kisebb 570-580-590 éri meg.
5700 után pedig el kell menni a 2070 Super-ig ami 190-200e-ért indul, hogy értelme legyen elgondolkodni Nvidia-n.[ Szerkesztve ]
-
Mumee
őstag
Én egyik 1660-hoz se látok ajándék játékot.
5700-ból ha jól emlékszem neked XT-d volt, kár idekeverni, illetve biztos hogy XT-d volt mert írod hogy 87-90fok.
Gyárilag 2100rpm-re tolja fel a ventit, amit lent linkeltem az 1300rpm és így ment az általad írt 87-90fokon, az szerinted hangos?
Megsúgom halkabb, mint gyárilag bármelyik custom.
Itt egy táblázat, hangban a normál custom hűtések hangja kb. a kék sorban találhatóak.
Általánosságban ugye a ~35dBA zaj az "elfogadott".
Sima 5700 max GPU ugye 1850mhz, ami valós 1800mhz itt a valós szerepel a táblázatban, tehát a legalsó kék sor az a max-ra OC-zott sima 5700.
Custom fan curve-el a hang jó, hőmérsékletek jó és ára 115e + extrák.(#44103) gbors : Mint írtam direkt nem néztem, hogy mennyire kezdőár, mivel nemrég még az 5700 is egy tizessel olcsóbb volt, amit kb. az ajándékok kompenzálnak.
(#44105) Cifu : Valóban relatív, de mindenképpen van hozzáadott értéke és nem is bonyolult eladni akár havernak nyomott áron, ha nem kell. Én pl. a BL3+Xbox Pass-t eladtam 15e-ért.
Kábelt azért problémásabb eladni, mint egy játékot.
Viszont még ígyis 115e, mert a customra csak XT-nél van szükség.[ Szerkesztve ]
-
Mumee
őstag
Pont hogy a blower-t nem érdekli milyen házban van.
Azt aláírom, hogy a fan curve-t át kell állítani, de úgy gondolom hogy annak állítása még a félénkebb felhasználóknak se kellen gondot okozzon.
Én csak ár/érték arányt nézem, kutyát se érdekli hogy Nvidia vagy AMD.(#44108) Cifu : Ha az ajándékokat nem nézzük AMD oldalon, akkor egyetértek kb. annyival jobb az értéke az 5700-nak. Custom 5700 téren meg kár is róla beszélni, csak annak nem jön szóba aki a fan curve-höz se mer nyúlni.
-
Abu85
HÁZIGAZDA
Mondták a fejlesztők, hogy azért marad ki, mert nagyon sok munkával járna, és egyszerűen nincs rá erőforrásuk.
A just works dolog elég nagy hazugság. Nem csak just works az egész. Ha annyi lenne, akkor a Shadow of the Tomb Raiderben sem kellett volna hónapokig várni rá. De mégis sokáig tartott implementálni, mert át kellett tervezni egy csomó modellt, hogy az RT mag megfelelő háromszögszámot kapjon a feldolgozáshoz. Nem tud ám az a fixfunkciós hardver akármennyi háromszöggel gyorsan megbirkózni, van egy felső határa, és ha a játék háromszögszáma ezt túllépi, akkor le kell építeni előbb, hogy sebességet is kapj a DXR-nél. Ha persze eleve tudod, hogy ezt be akarod építeni, akkor úgy tervezed a geometriai részletességet, hogy ne legyen túl nagy.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A BF5 teljesen szabványos. Ott nem igazán az implementációval van probléma, hanem azzal, hogy hülyeséget csinálnak mellette. Az egész DXR lényege az lenne, hogy felejtsük el a fake hatásokat. Például szépen tükrözze vissza mondjuk a tank fémes anyaga a környezetet. Ezt alapvetően az algoritmus megteszi, de valamelyik korszakos zseni a DICE-nál kitalálta, hogy milyen faszántos lenne, ha időközönként egy robbanás visszatükröződne a tankon, és beraktak egy fake robbanáseffektet, amitől a tank folyamatosan villog, még két háztömb között is. Lövésed sincs, hogy mi robban, de látod a semminek a villanását a tankon. Ez egy dizájnbeli döntés, amivel szépen megölték a DXR-nek a lényegét. Enélkül amúgy tök jól működne.
Én alapvetően a BF5 implementációját tartom messze a legjobbnak persze a kamurobbanásokat leszámítva, az egy baromság, de el tudom képzelni, hogy volt egy túlbuzgó gyerek, aki átpréselte a "csúcsszuper", semmitől villanós dizájnötletét valamelyik megbeszélésen. Ha ez nem lenne, akkor tényleg szuper lenne. Viszont alapvetően sok dolgot lehet nagyon jó minőségűre csinálni raszterizálással, valamilyen volumetrikus megoldással, ráadásul sokkal gyorsabban, de reflectionre nincs igazán jó megoldás a sugárkövetésen kívül. A reflection probe talán, de az is zabálja a teljesítményt, tehát ugyanúgy fps killerré válik a raszterizálás is.
(#44218) Pinky Demon: Nincs jelentősége az elterjedésnek, mert az RDNA képességei nem igényelnek direkt támogatást. Egyszerűen csak működnek. Például a mesh shader egy újdonság lesz az új DirectX-ben, amit tud támogatni az AMD az RDNA-val, de nem szükséges számukra, mert úgy működik a hardver, hogy a legacy shadereket képes "surface és primitive" pipeline-ra fordítani. Nem kell hozzá direkt kódot írni, a fordítóban történik meg a trükk, és a hardver úgy van felépítve, hogy el tudja fogadni a legacy kódot, méghozzá az új pipeline-ra konvertálva. Az RDNA-ban egy rakás funkciója el van rejtve a fejlesztők elől, nem kell direkt támogatást írni rá. Ez szándékosan van így csinálva, hogy a beépített újdonságok csak úgy alapból működjenek, ne kelljen várni arra, hogy kihasználják őket.
Ettől függetlenül lesz értelme az RDNA-n is a mesh shadernek, mert azzal csak hatékonyabban használható a hardver, viszont az AMD már korábban is elmondta, hogy egészen nagy kétségeik vannak arra vonatkozóan, hogy a fejlesztők át fognak portolni ~százezer sornyi shader kódot, hogy az új hardvereknek ezt a képességét kihasználják. Sokkal inkább gondolják azt, hogy amíg nincs mindenhol primitive/mesh pipeline-ra támogatás, addig ilyen shadereket nem fognak írni, mert a régi hardvereknek meg szükségesek a legacy shaderek, vagyis dupla minkát kell csinálniuk. Emiatt választották azt az utat az RDNA-val, hogy a legacy shadereket az új pipeline-ra fordítják, és mindezt a fejlesztők elől elrejtve. Például ezért tudja egy Radeon RX 5700 XT az újabb játékokba ütni a Radeon VII-et, mert ugyanazokat a vertex shadereket egy sokkal hatékonyabb pipeline-ba fordítja be, vagyis hiába gyérebb papíron az 5700 XT a Radeon VII-hez viszonyítva, pusztán a háromszögek kivágását elősegító pipeline miatt sokkal kevesebbet számol.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Petykemano
veterán
A felvetés arról szól, hogy
- az USA-Kína kereskedelmi háborúzás árt Kínának, főleg a Huaweinek
- a Kínai kormányzat befolyással tud lenni mindenre, ami Taiwanban, azaz a TMSC-ben történik
- itt a lényege: ennek a politikai nyomásnak a hatására a TSMC a Huaweit előbbre sorolja mind az Apple,.mint az AMD igémyeihez képest.
(Igen, itt az az állítás, hogy nem az van, hogy pénz beszél, kutya ugat, hanem hogy a kínai kormány nyomására ad vagy nem.ad több kapacitást a TSMC az AMDnek, illetve cicózik vele, hogy mit milyen nodeon gyártson.
Ezt a politikát a háttérben sejtető állítást némileg alátámasztja az is, hogy a hetekben Trump felől problémaként felmerült, hogy az AMD termékei közül egy sem készül amerikai földön, a TSMC meg nem akar ott üzemet.nyitni)
- a TSMC cicózása az AMD-t nehéz helyzetbe hozza, folyamatosan termékmegjelenéseket kell elhalasztani.
(Valóban, számos alkalommal felröppent, hogy a TSMCnek nincs elég kapacitása? Amit mindig lecsaptak azzal, hogy de vaaan. Csak hát akkor hol vannak a termékek?)
- és a vége: vajon az AMDnek kárt okozó cicózás miatt az AMD át fog-e vinni legalább bizonyos termékeket a samsumghoz, ami ugyan gyengébb node, de olcsóbb, vagy legalább fenntartja-e ezt az opciót ezzel igyekezvén kikényszeríteni a tsmctől a nagyobb 7nm kapacitást.Szóval nyilván nem egyszerű átvinni egy designt, de ha az a kérdés, hogy piacra tudod-e dobni a terméket, vagy csak paperlaunchozol, akkor elgondolkodtató.
Persze itt a kérdés a történetben az, hogy a huawei miatt a kínai korkány valóban tud-e hatást/nyomást.gyakorolni a TSMC amerikai partnereinek juttatott kapacitásra.
Szerintem egy remek elmélet.[ Szerkesztve ]
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
Már egy éve gyártanak 350mm2-es lapkákat 7nm-en.
Igaz, ez biztos 7nm+-os, de biztos valami EUV, de hát akkor is legalább 2 éves tömegtermelési tapasztalat fog rendelkezésükre állni.Én nem tartom lehetetlennek.
Az más kérdés, hogy nem lenne-e praktikusabb chipletekkel megoldani?Szerintem egyébként az nvidia is ilyen böszme nagy chipekkel fog megjelenni jövőre. Mármint a csúcs.
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
Nem állítom, hogy igaz. De egy érdekes elmélet annak feloldására, hogy miért van (miért állítja) a TSMC, hogy van kapacitás és miért tűnik mégis úgy, hogy az AMD kapacitáshiánnyal küzd. (Termékelcsúsztatások)
Egy pár hete kiderült, hogy mennyi az N7 hibasűrűsége: [link]
Az ott megadott hibasűrűséggel (0.09) egy 25x20-as lapka esetén 65%-os lenne a kihozatal. 110-ből közel 70db lenne hibátlan és nyilván a hibásak egy része is értékesíthető.
$10000-os megmunkálási árral számolva mondjuk $100-ra jönne ki egy lapkára.Ugyanezekkel az értékekkel számolva a Radeon 7 $60 körül lehetett volna.
Szerintem nem vállalhatatlan jövő évben, de nyilván ez elsősorban HPC piacra menne, mint az vega 20.
Amúgy szerintem a 2080Ti Super szerintem nem emiatt jön, hanem a Navi12 miatt. Az elvileg egy ~60CU körüli cuccnak kéne lennie kb vega20 mérettel úgy, hogy remélhetőleg eléri a a 2080Ti szintet. Ennek ma már nem kéne gondot jelenteni egy $660-750 árcédula. (és bárcsak inkább $550-600 lene)
Találgatunk, aztán majd úgyis kiderül..
-
félisten
ebben azért van kockázat, mert ha Intel átveszi az Nvidia szerepét, abból mi jól nem jöhetünk ki.
Per pillanat nem átvenni kellene a zöldek helyét, hanem egyáltalán megjelenni mellette. Miután van egy rohadt erős zöld túlsúly egy marginális vörös jelenléttel. Nem igazán látjuk azt, hogy a vörösök a dVGA piacon feltámadnának, tehát egy harmadik szereplő legalább annak az esélyét elhozhatja, hogy végre újra árverseny lesz...
Intel meg majd elfogadhatóvá teszi azt amit nyújtani tud, még ha nem is elég nekünk, lásd 4 magos procik évekig tartó uralma.
Ehhez kellett az, hogy akkor az AMD konkrétan kivérezve haldoklott a padlón. Szerencsénkre nem múlt ki, így hirtelen a 4 magvas procik elkezdtek lecsúszni a belépő szintre. De a dVGA piac nem egészen ez a kategória.
Minden esetre az nVidia nem azért zsebel be közel évi 2,5-3 milliárd dollárt [u]nyereségként[/u] a gaming piacról, mert ilyen jól dolgoznak, hanem azért, mert ekkora felárral tudja eladni a termékeit a verseny hiánya miatt. Egyfelől nem sajnálom tőlük, hiszen pénzből élnek ők is. Másfelől viszont mint vásárlót, nem picit dühít a helyzet...
nekik a DGPU szegmens 6x nagyobb cégkén mint Nvidia akár bukó kategóriába is belefér, ha valaki éppen az Ő CPU ját veszi a a kártyája mellé. Arról meg majd gondoskodni fog, hogy azt vegye, meg arról is, hogy az elég legyen bármit is nyújt.Ez utóbbi persze inkább üldözési mánia, de úgy gondolom van realitása ismerve a cég múltját.
Az előbb hoztam példát arra, hogy ez nem biztos, hogy nyerő üzleti megoldás (ultramobil szegmensben tett látogatása az Intelnek). Meglátjuk mi lesz. Ne feledd, hogy CPU piacon az AMD van lassan nyeregben, vagyis az Intel lehetőségei kissé mások, mint amilyenek volt az általad mintaként nézett OEM és laptop erőfölény esetén...
Ha lehet választani, akkor ne Intel legyen semelyik cég hóhéra.
Hajrá, hagyjuk a fenébe az Intelt.
De akkor ki is fog versenyhelyzetet teremteni a dVGA piacon?
Az AMD?
A most látható Navi töketlenkedéssel és Polaris kihúzással?[ Szerkesztve ]
Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.
-
félisten
Szerintem hamarosan Nvidia az AMD mellett fogja keresni a boldogulás.
Márminthogy felvásárolják a zöldek az AMD-t?Egyfelől benne van a pakliban (mondjuk a Mellanox felvásárlása után nem biztos, hogy most hirtelen lenne erre a házipénztárban elég lé), másfelől ehhez azért az kellene, hogy az Intel tényleg belépjen a dVGA piacra.
Amíg az AMD és az nVidia volt egyedül itt, addig erősen esélytelen lett volna egy ilyen felvásárlás, hiszen a versenyhivatal élből elkaszálta volna a dolgot...
Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.
-
Petykemano
veterán
Úgy tűnik, igen
Az 1650S valszínűleg épphogy nem éri el vagy itt-ott épphogy eléri majd az 1660 teljesítményét. És ugyanígy épphogy megközelíti a táblázat alapján az rx 5500 OEM is.És továbbra is azt mondom, hogy akkor csalogatóbb lenne számomra, ha $149-ért kínálnák és a $149-os 1650-hez hasonlítanák, mintha a $179-os 1650S-hez hasonlítanák, és áraznák.
Attól függ, mit akarnak eladni. $179 áron a csalódott várakozók szerintem inkább behúznak egy $100-120-os (+áfa) polarist. De ismerve az AMD jelenlegi árazási politikáját inkább a $179-et tartom valószínűbbnek, pontosan erre utal a HP-nél tapasztalható 1650<rx5500 árazás is.
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
Az RX 5500 OEM tesztről csak egy hírecske volt, én azt hittem, leak.
a TPU-n legalábbis nem találtam részletes review-t róla - azon kívül, hogy most az 1650S tesztjénél ott voltak az eredmények.Az RX 5500 esetén lehet tudni, milyen drivert használtak?
Találgatunk, aztán majd úgyis kiderül..
-
Pécsi gyerek
addikt
Ha azt nézem hogy alzán előrendelhető 65-ért a gtx 1650 super,akkor ezt kb MINIMUM 55-ért tudom elképzelni amd-től.De 50 ért azonnal veszek egyet és eltűnök a topicból végre sokak örömére.
Gigabyte b360 hd3+i5 8400+4×4 gb ddr4 2400 mhz+fsp 460 80+Gtx 1060 6 Gb +zalman z1 neo
-
Pécsi gyerek
addikt
Én arra vagyok már nagyon kíváncsi hogy egyszer csak megjelenik majd pl alzán azt ennyi,vagy lesz még előtte valami kis hírecske
Hatalmas nagy vicc ahogy bejelentették ezt a kártyát,de nem kapható.Gigabyte b360 hd3+i5 8400+4×4 gb ddr4 2400 mhz+fsp 460 80+Gtx 1060 6 Gb +zalman z1 neo
-
hokuszpk
nagyúr
-
.Ishi.
aktív tag
Én ebből csak ezt furcsállom: "Designed to compete with NVIDIA's GTX 1660 / Ti"
Hogyan? Az 5500XT ugyanúgy 22 CU-val jön, mint az OEM 5500, ami a 1650 Super ellenfele. Ebből hogyan foghatnák meg a 1660, vagy akár a 1660Ti szintjét?
Az előző leak ellentmond annak, hogy a 2020-as CES-en az AMD villantja a teljes RDNA2 felhozatalt. Ha valóban jön januárban valami 5600XT-szerű kártya, azt már inkább 6xxx-nek kéne akkor nevezni.
-
Tyrel
őstag
Igen mert AMD-nél kirobbanó sikere volt mindennek amit Raja csinált...
Amíg GCN-t gyárottak addig az volt a mondás hogy jajj hát azt még nem Raja tervezte azért nem az igazi, de fú majd a Navi az ő gyereke lesz és az fú de milyen jó!...Megjött a Navi és kb. annyit értek el vele hogy a perf./watt arány versenyképes szintre javult, de trónbitorlás semmilyen téren nincs. Íme Raja nagy találmánya, ennyire futotta belőle.
Intelnél meg majd hirtelen megváltja a világot? Kutyából nem lesz szalonna...
Turenkarn
-
Tyrel
őstag
Sejtettem hogy fel lesz hozva a DLSS, de az fixen működik, bekapcsolod (ahol egyáltalán be lehet) és onnantól végig egy alacsonyabb resolution scale-en fut a játék. Ráadásul mikor kijött nVidia is a Freestyle Image Sharpening-el (vagy mi a RIS másolatának neve) nem egy cikk jelent meg ilyen "DLSS is dead!" címekkel, mondván egy egyszerűbb és több játékban alkalmazható eljárással jobb képminőséget kaptak.
A DLSS egy túlmisztifikált varázs lufi, jönnek ezzel a rizsával hogy supercomputer tanítja rá az AI-t meg külön hardver kell hozzá (tensor magokon fut vagy nem is emlékszem már) meg hú meg ha... aztán saját maguk kiadnak valamit ami egyszerűbb és jobb.
Egyrészt egyszer várjuk meg hogy ezt a Radeon Boost-ot milyen játékokban lehet egyáltalán bekapcsolni, mert ha ugyan úgy fejlesztői támogatást igényel mint a DLSS akkor pont ugyan olyan sz*r is, igaz legalább nincs köré hazudva valami AI-s csoda. HA általánosan mindenhol be lehet majd kapcsolni az már nagy előny lenne, de épp pár hozzászólással ez előtt fejtegettem hogy szerintem nem fog úgy működni.
Ezen felül a Radeon Boost dinamikusan skálázódna, gondolom pontosan ugyan annak a logikának az ellentetjével ami alapján Chill is eldönti hogy mikor veheti vissza az fps-t. Az egyébként nem egy szuper-kifinomult cucc, simán csak azt nézi hogy van-e bármilyen user input, ha húzogatod az egeret meg nyomkodod a gombokat akkor elengedi az fps-t, ha meg csak állsz és nézel mint a birka akkor visszaveszi.
Ezt úgy kell érteni hogy nem a jelenet intenzitásától függ mennyire lassítja be, mivel ahhoz értenie kellene mi történik a képen, az meg már tényleg nagyon AI feladat, sokkal inkább mint pl. egy DLSS, nem is tud ilyet a Chill meg nem is fog sztem soha.
Visszatérve a Radeon Boost-ra, ha megállsz megcsodálni valamit, megkapod vele a 100% resolution scale-t, DLSS-el meg nem (jelen infók szerint).Várjuk meg egyszer hogy a gyakorlatban milyen lesz, mielőtt rögtön ráragasztjuk hogy ez a DLSS másolata...
[ Szerkesztve ]
Turenkarn
-
Tyrel
őstag
Akkor olvasd el még egyszer mert nem hasonlítottam a RIS-t a DLSS-hez. Azt mondtam hogy az nVidia által (RIS-re válaszként kiadott) image sharpening eljárás (az a freestyle sharpening vagy mi ott a neve) tesztjekor nem egy reviewer arra jutott, hogy jobb vele a kép mint DLSS-el. Még ezt is mondtam hogy jöttek cikkek ilyen "DLSS is Dead" címmel.
Nem a RIS a lényeg, arról van szó hogy nVidia saját maga kiadott valamit amivel nevetségessé tette a DLSS körüli marketing bullshit-et, meg talán feleslegessé magát a technológiát is...[ Szerkesztve ]
Turenkarn
-
Tyrel
őstag
Igazán az lesz szerintem itt a döntő tényező, hogy ezt a Radeon Boost-ot milyen játékok alatt lehet bekapcsolni. DLSS-t ugye támogatnia kell az adott programnak, pl. BFV-ben meg Metro Exodus-ban van, azt tudom, feltételezem hogy Control-ban is, de így láthatóan nagyon nem általános eljárás.
Ha a Radeon Boost is ugyan ilyen lesz akkor ugyan annyit is ér majd...Meglátjuk, én nagyon kíváncsi vagyok mert 3440x1440 monitorral sokszor már egy 90%-ra levett resolution scale is érezhető sebességnövekedést hoz, a képminőséget viszont még nem rontja nagyon. Csak hát ugye ott a probléma hogy sok játékban nincs ilyen kapcsoló... Ha ők valahogy megoldják hogy ez működjön azokban is amikben natívan nincsen de kéne, ráadásul tegye mindezt dinamikusan, akkor le a kalappal, az tényleg nagy dobás lenne...
...csak igen erős kételyeim vannak a felől hogy ez megoldható, pláne akkora költségvetéssel mint AMD-é...
Na meg nem ártana ha a RIS kapcsolót végre átpakolnák a játékok profiljai alá, mert az kifejezetten nevetséges hogy a monitor beállításai alatt van. Vagy bekapcsolod és akkor aktív mindenre, vagy nem. De olyan opció hogy neked X meg Y játékban kell csak, egyébként meg nem, olyan opció nincs, ami bizony gáz.
[ Szerkesztve ]
Turenkarn
-
Tyrel
őstag
A DLSS fixen csökkenti a resolution scale-t. Maga az a képesség ugyan úgy meg van a Boost-ban is (és ugyan úgy játékfüggő), igazán nincs lényegi különbség ezen a téren.. Ill. technikailag lehet hogy van, de az eredmény ugyan az...
...csak AMD dinamikusan próbálja változtatni ennek a mértékét, amivel egyébként szintén nincs baj, sőt jó ötlet. Azzal van baj, hogy mi szerint dönti el mit csináljon, értelmetlen.Biztos vagyok benne hogy az fps-re is lehetne kötni, Radeon Software elég részletesen méri ill. diagnosztizálja saját magát és a játékok futását, nem hinném, hogy az ebből származó fps infókat ne használhatnák fel... egyszerűen csak hülyék.
Mondom, Gears 5-ben ott van a tökéletes mintapélda, etalon hogy mit kéne ennek csinálnia... kéne... de AMD szellemi teljesítményét úgy látszik meghaladja...
[ Szerkesztve ]
Turenkarn
-
Tyrel
őstag
Nem tudom milyen tesztről beszélsz, én eddig csak hardware unboxed-ét láttam, ott nem volt ilyen "tizedmásodpercekre megakadt" téma... Ha van is az csak kezdeti bug, most jelent meg, press driverrel nyomták, stb.
A DLSS mit csinál AI-val? Resolution Scale csökkentéshez semmilyen AI nem kell, az utólagos korrigálásainál amikkel megpróbálja ellensúlyozni a minőségromlást meg a saját Freestyle Sharpening filterük is jobb, amihez szintén nem kellett AI... Szerintem ez az egész magic amit kb. beidéztél most az nVidia marketinganyagából a DLSS-ről meg az AI-járól egy nagy bullshit volt Mr. Bőrdzsekitől, hogy eladják a feature-t.
Simán csak csökkenti a resolution scale-t mindkét megoldás (erre némelyik játék maga is képes, mindenféle AI meg célhardver nélkül), nincs abban semmi nagy varázslat.nVidia megoldása több játékkal működik, valószínűleg jobban is működik mivel vagy egy évük (? franc emlékszik mióta van?) volt már csiszolgatni... AMD-é meg okosabb lehetne mert nem fix Scale-el dolgozik, de hibás logika szerint skálázódik, így meg sztem nem fogja használni senki sem. Ezt átírni valószínűleg nem nagy feladat, mindenük meg van hozzá, csak kérdés hogy meg lesz-e a felismerés is...
[ Szerkesztve ]
Turenkarn
-
Abu85
HÁZIGAZDA
A probléma eleve az, hogy a játék 13-14 fps-sel fut átlag az adott gépen. A Boost nem tesz csodát. Nem éri meg azt várni tőle, hogy 13-14 fps-ből 60-70-et csinál.
(#44693) b. : Szerk.: Oké, bocsi.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Raymond
félisten
"Pricing for the XFX 5500 XT Thicc II Pro is set at $229.99, and the Sapphire Nitro+ RX 5500 XT is listed for $259.00."
Privat velemeny - keretik nem megkovezni...
-
sutyi^
senior tag
de nem értem mit vártál? hogy 130 dollár lesz vagy mit?
4GB - 150-160USD
8GB - 170-180USDEgyik se lenne még így sem világmegváltás, max. versenyképes az NV palettájával... Ehhez képest neweggen a legolcsóbb 4GB Sapphire Pulse 180USD, 8GB Seggszikla meg 200USD, Pulse meg 210USD.
Polarist meg nem kell kihagyni a számításból, az olyan áron megy amennyit ér a jelenlegi fossá szaturált piacon. XFX RX 580 8GB 170USD, ugyanazzal a game bundlellel... aminél igazából nem igazán gyorsabb.
GTX1660S meg fogható 220USD-től...
-Pedig nem is én utállak téged, te utálod saját magad! - ...és mégis egész nap együtt kell lennem saját magammal.
-
Abu85
HÁZIGAZDA
Úristen. Olvasd már el mit írok.
(#44983) X2N: A BRAW-ban akármit raksz mellé, bizonyos részletességen túl mindenképpen a PCI Express lesz a limit. Ezért választottuk ezt a programot demonstrációra, mert a Blackmagic írta, hogy náluk a 4.0 előnye tuti kijön.
Egyébként az AMD is ezt a programot javasolja, mint valós körülmény. A professzionális alkalmazások között kell keresgélni, hogy a PCI Express 4.0-nak megmutasd a hatását. Máshol nincs igazán jelentősége.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
arabus
addikt
Nem PCIE3.0 8X-re engedték,hanem PCIE4.0-8X-re ami egyenértékū.
Más kérdés hogy csak ryzen 3000-hez ajánlott.Xeon Platinum 8490H,8468H,Ryzen 7500F,Gigabyte B650M K,Xeon Phi,i9 7960X,i9 7920X,Xeon w2135,Gskill royal 4400,Gskill Trident Z,Pico 4,Red Devil 7900XTX,Asrock W790 WS,Fury Pro RDIMM 6000,Z590,Intel Cryo,Intel 11900F,Ryzen 5600,Radeon 7600,Radeon 6800...
-
Abu85
HÁZIGAZDA
Egészen egyszerűen. Valójában a játékokban a PCI Express terhelése azért alacsony, mert tudatosan erre építik fel a működést. De előfordulnak olyan helyzetek, amikor nehéz úgy optimalizálni a rendszert, hogy a terhelés minimalizálva legyen. Klasszikus példa a streaming, amikor a textúrák jelentős része a rendszermemóriában van, és onnan kerül át a VRAM-ba, amikor erre szükség van. Főleg a virtuális textúrázást használó játékok esetében (AC: Origins és Odyssey, Battlefield 4-től kezdve az összes, új Wolfenstein 1-2) vannak olyan jelenetek, ahol pusztán a jelenet felépítése miatt ez a terhelés valamivel nagyobb, mint a játék jó részében, és ha bizonyos útvonalat követsz, majd többször bejárod, akkor nagyon meg lehet hülyíteni a megatextúrázó rutint. Ilyenkor mesterségesen ki tudod hozni a PCI Express 4.0 előnyét, mert gyakorlatilag kihasználod a fellépő tipikus problémákat, ideértve a VRAM beszemetelését. De ahogy írtam, senki sem fog úgy játszani, hogy direkt kihasználja az adott motor streaming hibáit, mert ilyenek vannak, nem tökéletesek ezek a programok, de nem baj, mert szökőévente, ha egy ember belefut a százezerből. Emiatt nincs is értelme ezt tovább optimalizálni, mert valós problémát nem okoz, rendbe hozni pedig drága lenne, így jó az a játék így is. Viszont nyilván az AMD rengeteget monitorozza a játékokat, így tudják, hogy mit és hol kell csinálni, hogy x-y címben valamennyire meghülyítsék a streaminget, amit megcsinálhatnánk mi is, csak ugye miért tennénk? Erősen mesterséges körülmény lenne, amit a valóság nem igazán igazol.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Alapvetően azonos, csak ha rájátszol erre a dologra, akkor bármilyen hardverek ki tudod ezt hozni. Nem véletlen az a játékválasztás. Csupa megatextúrázó cím, ahol be lehet hülyíteni a megatextúrázót. Az AMD el is árulta a nyáron, hogy miképp kell csinálni.
Az FC5 is megatextúráz. Nézzék meg egy olyan címben, ahol nem lehet ezt megcsinálni. Ja, hogy ott nincs különbség? Akkor nincs szenzáció sem, és nincs kattintás.(#44992) b. : A programokon belül természetesen orvosolható, de azért nem látsz erre túl nagy erőfeszítést a fejlesztők részéről, mert ha normálisan játszol, akkor jelenleg képtelenség előnyt kovácsolni a PCI Express 4.0-ból. Egyszerűen nem válik limitté. De ha a streaming algoritmus problémáira tudatosan rájátszol, akkor természetesen az lehet, csak én még nem láttam játékost úgy játszani, hogy megadott útvonalon fut körbe körbe, és rángatja az egeret. Ez hülyeség. Ezt nem kell javítani, mert ilyet egy játékos nem csinál, de még ha csinál is, akkor sem tudja, hogy pontosan hol kell az adott játékban. Az AMD-nek könnyű, ők azért látják, hogy mit csinál a játék a VRAM-ban, tehát ki tudnak találni olyan szimulációkat, ami belimitálja a buszt. Ezt sokszor a fejlesztők sem látják egyébként. Nem téma ezzel foglalkozni, mert jó eséllyel senkinek sem jön elő, aki játszik vele. A gyártók pedig azért csinálják ezt, hogy hatékonyabb drivereket tudjanak írni, nekik nyilván hasznos egészen extrém szituációkat szimulálni, ami otthoni szinten nem realitás. Jelen pillanatban a valóság a PCI Express 2.0, 3.0 és 4.0 tekintetében ez: [link]
Ami a Navi esetében specifikus, és driverrel orvosolható az a memóriamenedzsment. Mint írtam az AMD nem portolta az összes GCN optimalizálást a Navira, mert nem mindegyik működik jól, illetve a DirectX 11-es meghajtó már nem fókusz.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Petykemano
veterán
Arra gondolsz, hogy a W5700 és W5700X mellé?
DP tudás? HBM, vagyis Pro Duo?
Mit hozna ez a Vega 20-hoz képest? Amikor mindjárt itt az arcturus is.
Mármint ok, pro duo, de csak erre megérné egy külön lapka, amit ledobnak a navi 10 alá? A hbmnek a mobil szegmensben lenne szerepe, azzal kétségtelenül nagyot Lehetne kaszálni.
De az ilyesfajta termékszaturáció - saját célra - tökre nem volt eddig jellemző.Találgatunk, aztán majd úgyis kiderül..
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.