- Hálózati / IP kamera
- Sikeres volt a teszt, elpusztítja internetes műholdjait az Amazon
- Windows 11
- Színészek hangjait lopta el egy AI-cég
- Linux kezdőknek
- Linux - haladóknak
- Az Apple szerint ejteni kell az USA trösztellenes perét
- Telekom otthoni szolgáltatások (TV, internet, telefon)
- Ubiquiti hálózati eszközök
- Windows 10
Új hozzászólás Aktív témák
-
HSM
félisten
válasz huskydog17 #46844 üzenetére
"Sőt szerintem számítógépet se használj, mert bármilyen fájlt meg lehet fertőzni."
Remélem megvan a különbség, amikor valaki megbízható forrásból származó DLL fájlokat használ szemben az innen/onnan letöltött, vagy moddolt forrásokról."Én azt hittem eladásokból él, de akkor lehet tévedtem."
Óriásit. A kiadó él az eladásokból, a fejlesztő pedig a fejlesztésből."Az upscaling nem zárja ki a jó képminőséget ahogy te írod."
Kinek mi a jó képminőség ugyebár. Nekem a 1440P monitoromon a natív 1440P. Próbáltam az FSR2 és DLSS2-t is, egyik sem győzött meg."A gyakorlat az ellenkezőjét mutatja."
Látványosan nem sikerült érvet is raknod az állításod mellé...."játékokban brand cég logó van a stáblista végén, ahol több logó is van? A többi nem zavar?"
Nem is értem, hogyan jutottál ilyen marhaságra, mint végkövetkeztetés. Nem az a kérdés, engem mi zavar, hanem az, hogy a különböző jogi megkötések esetlegesen mit lehetetleníthetnek el."A nagyobb black box érdekes módon nem zavar téged"
Az a játék, amit megvásároltam."a kisebb black box, ami szintén egy szellemi végtermék, amit a készítők a játékélmény növelésére használnak"
Az aztán a játékélmény növelése, hogy rosszabb minőségű képet bámulhatsz.[ Szerkesztve ]
-
HSM
félisten
válasz Busterftw #46873 üzenetére
"Illetve az Nvidia direkt kihozott crypto only cuccot, ami nyilván sokat nem ért, de legalább próbálkoztak."
Mivel próbálkoztak? Elárulom, több hasznot termelni maguknak a GF-okon tiltással, majd szállítva emelt áron a "megoldást" a saját tiltásukra, amit ráadásul nem lehetett gémereknek olcsón eladni később (hint: mégtöbb gamer eladás). -
HSM
félisten
válasz Valdez #46911 üzenetére
Nálam a BFV-nél az RT működéséhez a 6800XT-mre egy több, mint 2 éves drivert kell felrakjak... Érdekes mód azzal tökéletes, újabbakkal meg eltűnnek kompletten az RT effektek. Igen, ezer éve is küldtem már róla több ticketet is, eddig semmi változás...
Más is belefutott: [link] . Jó lenne, ha nem lennének ilyenek...[ Szerkesztve ]
-
HSM
félisten
Elolvastam. Jó 'móka' lesz. De a gyártó dolga lett volna erre idejében, megfelelően felkészülni. A felhasználóhoz kerülő eszközök alapvetően sosem tekinthetőek megbízhatónak... Talán csak a kifejezetten erre kifejlesztett céleszközök kivételek, de aminek a feltöréséről szó van, az látványosan nem ez a kategória... De nem vagyok meglepve, ismerve a gyártót és a vezetőjük módszereit... Biztos ezen is lehetett spórolni pár dollárt...
[ Szerkesztve ]
-
HSM
félisten
válasz Petykemano #47044 üzenetére
Szerintem mindkét generáció rendben lenne, kivéve az árakat...
-
HSM
félisten
válasz huskydog17 #47049 üzenetére
Ezt most úgy írtad, mintha képtelenség lenne natív felbontáson, skálázás nélkül játszani...
Főleg növényzet elég gyatrán tud kinézni bármilyen skálázóval a natívhoz képest... -
HSM
félisten
válasz huskydog17 #47051 üzenetére
"Ezt úgy írtam, hogy az exkluzivitás értelmetlen és rossz a játékosoknak."
Ugyanúgy, ahogy a DLSS exkluzivitása is...A natív felbontáshoz szerintem ma már elvárható egy jó minőségű TAA megoldás.
-
HSM
félisten
válasz Busterftw #47055 üzenetére
Nem erről beszéltem, hanem hogy a DLSS-t nem lehet bekapcsolni bármelyik más gyártó termékén. Tehát a fejlesztőnek többletmunka, ami pedig értelmetlen és rossz a játékosok szempontjából. Igazából ez az, ami igazán értelmetlen, nem az, amikor a DLSS nincs beépítve, hanem helyette egyetlen, olyan megoldás, ami minden kártyán működik.
#47056 huskydog17 : Én a korábbi vitában arra jutottam, hogy egyrészt nem tudunk semmi biztosat, másfelől hogy én biztos nem építeném be a játékomba a DLSS-t azokkal a licensz feltételekkel, amiket az Nv előír. Főleg viccesek lennének azok, amik szponzorált címek, én sem szponzorálnék olyan játékot, ami a konkurencia logójával indul, és az egyebek.
[ Szerkesztve ]
-
HSM
félisten
válasz huskydog17 #47060 üzenetére
Gondolod, hogy a játékfejlesztők tapsolnak örömükben, hogy háromszor is dolgozhatnak ugyanazzal a marhasággal?
-
HSM
félisten
"Azért vagy annak a híve mert nem szereted magát az eljárást használni és mert te megkapod a kártyádhoz elérhető legjobb minőséget."
Óriási tévedés. Volt egy 12GB-os OC RTX3060-asom is és mikor némi tesztelés után eldöntöttem, hogy a RX6800XT-m tartom meg akkor FHD-n RT-vel, Quality DLSS-el nagyságrendileg hasonlóan gyors volt, mint a 6800XT natívban. 5 számjegyű összeg maradt volna a zsebemben, ha a DLSS (számomra) élvezhető képet adott volna a natívval összehasonlítva. De nem adott, így a lényegesen olcsóbb 3060 ment az apróra. Lásd részletesebben: [link] .Kabarénak tartom, hogy ekkora ügyre van ez felfújva itt, amikor a DLSS(2) is rosszabb a natívnál, és csak minimálisan jobb a gyártófüggetlenül is remekül működő FSR2-nél.
A párszor több, minőségre vágyó RTX kártya tulajnak pedig üzenem, létezik natív renderelés is, csillámporos felskálázás nélkül is."Mindhárom eljárásnak ott kellene lennie egy játékban"
Óriási tévedés. Egy problémára jó esetben egy, gyártófüggetlen eljárásnak lenne helye minden játékban. Minden további alapvetően erőforrás pazarlás.[ Szerkesztve ]
-
HSM
félisten
"Az AMD eljárása, szellemi terméke, pont ugyan úgy ki vagy szolgáltatva a döntéseiknek a jövőben és a jelenben és az általuk nyújtott minőségnek és szolgáltatásnak."
Ezek szerint azt sem tudod, mit jelent az, hogy open source? Nem is baj, csak akkor nem kellene butaságokat állítani, mintha tudnád....
A lényeg itt az, hogy mivel szabadon elérhető, beépíthető és módosítható a forráskód, így a fejlesztő teljes szabadsággal alakíthat rajta, illetve teljes mértékben a kontrollja alatt marad a működés, amibe az AMD-nek, mint az eredeti kód szerzőjének semmiféle beleszólása, vagy ráhatása nincs, és nem is lehet. Világosan le van írva a néhány soros licenszben: [link] .
Ahol te, mint fejlesztő totálisan ki vagy szolgáltatva, az éppen a DLSS, mivel akár kívülről a driver is cserélgetheti a futó kódot az alkalmazásod lába alatt, és egy jópár, a többszáz soros DLSS licenszből fakadó kötelezettséget is kapsz a nyakadba, mert ugye ennek a használata licensz köteles is!
Pl. jogot adsz az Nv-nek, hogy a te appoddal reklámozzák magukat. Képzeld el ezt mondjuk egy AMD-exkluzív címnél, és csodálkoztok, hogy ebből nem kérnek...
Le van világosan írva, bár nem olyan szép elegáns, rövid szöveg, mint az FSR-é: [link] .A versenyt alapvetően jó dolognak tartom, nyilván, ugyanakkor ennek a szabványok betartásával kellene megvalósulnia. A végfelhasználónak is ez lenne az érdeke, nem az, hogy a zárt, gyártóspecifikus technológiával egy hajszállal kevésbé rossz képminőséget kap.
Minél több ilyen különutas, ráadásul zárt megoldás kap teret a szabványok kárára, a piacnak annál rosszabb. Ezek éppen a versenyt korlátozzák. Az RT, amit felhoztál azért is jó példa, mert bár az Nv képességeire lett szabva az API, de legalább lett szabvány. Így pedig lett verseny és a fejlesztőknek sem kell kétszer dolgoznia vele.#47072 keIdor : Tény, vannak nagyon rossz TAA implementációk, plusz a DLSS része lehet élesítés is. De ilyenkor nem feltétlen a DLSS-t kellene követelni, hanem egy szép TAA implementációt, esetleg (lehetőleg szabványos ) élesítő szűrő beépítését.
Ez egyébként nagyon tetszik a készülő FSR3-ban, hogy lehet kapcsolgatni a funkciókat, ha jól értettem. Felskálázás legyen vagy csak natív AA + élesítés, legyen-e fake frame generátor. Persze, a natív AA-t már tudta az FSR2 is (opcionálisan), vagy a DLSS DLAA néven.
[ Szerkesztve ]
-
HSM
félisten
válasz keIdor #47074 üzenetére
Tensor core az kb. annyit tesz, mátrix szorzás. Az RDNA3 már direkten gyorsítja is a feldolgozását [link] , több részlet: [link] .
Idézet az Ada white paperjéből: "Tensor Cores are specialized high performance compute cores that are tailored for the matrix multiply and accumulate math operations that are used in AI and HPC applications. " [link]Nyilván régebbi architektúrákon kevésbé gyorsítana, mivel a dedikált kihasználatlan hardver helyett a feldolgozás egy (elvileg nem túl nagy) része az általános feldolgozókon futna, és RDNA előtti vasakon az adatformátum támogatása sem lenne feltétlen ideális.
[ Szerkesztve ]
-
HSM
félisten
"Te egyetlen oldalról szemléled"
Szoftverfejlesztőként és felhasználóként ebből a két szempontból nézem a dolgok alakulását. Számomra irreleváns, melyik cég logója van valamire rárakva."Ráadásul nem értetted meg amit írtam"
Ó, dehogynem. Neked nem esett le, (ezek szerint még mindig nem), hogy miért tökéletesen irreleváns, mi lesz a technológia jövője a mai játékok szempontjából, amik a jelenlegi verziót használják.Aki a nyilvános verziót most letölti és beépíti, az használhatja később is, hiszen a licensz lehetővé tette ezt. Egyébként ez nem GPL, hanem egy egyedi licenszkonstrukció.
"Ki nem sz@rja le hogy a fejlesztőnek ez mivel jár ? "
Szomorú, hogy nem látod az összefüggést. Ha a fejlesztő ideje arra megy el, hogy ugyanazt a funkciót háromszor is megcsinálja, majd karbantartsa, akkor éppen ennyivel kevesebb ideje marad pl. jobb minőségű kódot írnia más, hasznosabb aspektusokból.Ha nagyon le akarom egyszerűsíteni, ha te bemész a boltba 1500Ft-al a zsebedben, akkor ha van kis eszed nem 3 csomag felvágottat fogsz venni belőle vacsorára, hanem csak egyet, és akkor marad kenyérre is mellé. Egy játék fejlesztésénél ugyanígy van egy keret, amit be kell osztani a különféle feladatokra.
[ Szerkesztve ]
-
HSM
félisten
válasz FLATRONW #47080 üzenetére
Először is, senkitől nem akarok elvenni semmit...
Másfelől elég érdekes az álláspontod, miszerint azt írod az FSR-re hogy "az tényleg egy hulladék megoldás", ugyanakkor azt várod, hogy a konkurencia megoldása meg jó legyen? Ugyan mitől lenne jobb, ugyanezt csinálja. Én a saját szememmel láttam, melyik mit tud, a nagy szakadék ott van, amikor nem natívban indítod, az FSR/DLSS között viszont már nagyítóval kell keresni a különbségeket...
Egyébként a szabvány sem azt jelenti, hogy csak egyformán sz@r megoldása lehet mindenkinek...#47081 Busterftw : Úgy, hogy két különböző, független dolgot jelentenek.
#47084 FLATRONW : Én 1080P-n és 1440P-n próbáltam őket. De 1080P-n már alapból nagyon kevés a pixel, onnan hova csökkented már?
-
HSM
félisten
válasz Raymond #47087 üzenetére
Van valami, amit nem vettem észre az összehasonlításnál [link] ?
Witcher 3 next gennel teszteltem én is.
Tudom, temporálisan valamivel stabilabb a DLSS, ha valaki erre kényes annak ez pozitívum lehet..#47086 FLATRONW : Az véletlenül sem opció, hogy esetleg leüljenek egy asztalhoz a nagy innováció közepette és találjanak egy közös megoldást? Ami mondjuk nem hoz licensz ügyileg sem potenciálisan lehetetlen helyzetbe bizonyos fejlesztőket?
Ha már ennyire fontos annak a bizonyos minőségre rendkívül érzékeny rétegnek a kicsit kevésbé rossz minőségű skálázójuk? -
HSM
félisten
válasz Busterftw #47102 üzenetére
"ha valamibe mindenki úgy nyúlhat bele és változathatja ahogy jónak látja, abból hogy akarsz szabványt"
A szabvány az interfésznek kell, hogyan kell pl. etetni adattal egy ilyen technológiát, és annak hogyan kell adott adatokkal működnie. Innentől mindenki szállíthatná a saját megoldását alá, és csak egyszer kellene a fejlesztőnek szívni a beépítéssel, karbantartással.
Ha egy ilyen open source megoldásba a fejlesztő belenyúlna, onnantól az ő felelőssége lenne, hogy továbbra is megfeleljen a szabványos interfésznek a működés."Ez pont az innovációt ölné meg, hiszen nem lenne verseny."
Miért ölné meg? A versenyt éppen a zárt technológiák és licenszfeltételek ölik meg.
Lásd USB-C. Bár vannak kifogásaim vele, de be kell lássam, pokoli kényelmes és környezetbarát, hogy egyetlen komolyabb USB-C töltővel/dokkolóval minden USB-C eszközt tudok itthon tölteni. Szemben a korábbi gyakorlattal, hogy ahány kütyü, annyiféle töltő hozzá. A verseny is köszöni szépen, jól van, USB-C-s telefon/tablet/notebook/powerbank és töltő/dokkoló oldalról is. Sőt, notebook téren még javult is a verseny, mivel pl. dokkolóból már nem csak az adott gyártó sokszor típusspecifikus dokkolóját (vagy töltőjét) tudod megvenni, hanem ha vettél egy általános USB-C dokkolót az minden épkézláb dokkolható USB-C-s notebookhoz jó lesz.[ Szerkesztve ]
-
HSM
félisten
válasz Busterftw #47108 üzenetére
"ha kezdetektől fogva közös szabványon keresztül kellene ennek piacra jutnia, akkor most vastagon szopnának az Ada userek."
Hibás az érvelésed. Ha előre megegyeznek egy jó interfészben, akkor teljesen mindegy, mikor készül el az AMD megvalósítása."Ehelyett az Nvidia üti a vasat, innovál és kijött vele, mert kész volt."
Akarod mondani, mert kellett valami duma, miért is vegyenek az emberek TENZOR kóros RTX VGA-t? Most persze megint vehetnek új RTX4000-et mert abban OPTIKFLÓ AKKELERÁTOR is van FÉK FRÉM generálni. De legalább dübörög az innováció.[ Szerkesztve ]
-
HSM
félisten
válasz Busterftw #47117 üzenetére
"Ha az Nvidia kozos interfacen egyezkedett volna a konkurnciaval, akkor nem lenne most RT-ben es AI felskalazoban elonyben."
Pedig RT-re ott van a közös interfész (DXR/Vulcan), ahogy egyébként Ai-ra is (DirectML), és mindkettőben előnyben vannak."Nem tudom mirol beszelsz"
Arról, hogy az FSR3 FÉK FRÉM generátora működni fog az előző generációs kártyáikon, így majd nyugodtan kipróbálhatom ha majd megjelent az RX 6800XT-men.
Míg, akik a nagy innováció hajtotta gyártó konkurens RTX3080-asát vették, azok vehetnek új kártyát a DLSS3-hoz, mert abban még nincs megfelelően innovatív OPTIKFLÓ AKKELERÁTOR. -
HSM
félisten
válasz FLATRONW #47124 üzenetére
Összedugják a fejüket, hogy milyen adatokból, a futószalag melyik pontján kéne egy ilyen technológiának szerepelenie, és milyen kimenetet kell adnia a játéknak. Onnantól kezdve a belső működés már mindenki magánügye lehetne. A DLSS is maradhatna a saját technológiájuk, az FSR is maradhatna nyílt.
A játékfejlesztői wrapperek és a streamline is ezt próbálja, de ez utólag már foltozgatás, ezt előre kellett volna jó alapokra építeni, ami mindegyik érintett igényeinek megfelel."Az a baj, hogy közös szabvány esetén nem igazán tudnának egymással versenyezni."
Miért ne tudnának? Mennyire terheli a hardvert, milyen a képminőség, temporális stabilitás? Bőven van hol versenyezni.#47125 b.: Ezért kéne összeülni, megegyezni.
#47126 FLATRONW : Miért ne lehetne? Régen ilyen volt pl. az anizotróp szűrés. Szabvány volt, de bizonyos VGA-kon jobb minőségben dolgozott. Pl. a HD6800-6900 széria ezen javított az előző generációs Radeonokhoz képest [link] .
#47129 Busterftw : Nem tudom, mit akarsz bizonyítani a listáddal. Talán azt, hogy évek óta van szabvány és innováció is? Miközben ezt tudom írni egy USB-C-s dokkolóról, USB-A-s perifériákkal?
#47133 Busterftw : A scaler ugyanúgy működhetett volna szabványos alapokon, sok fejfájást megspórolva az érintetteknek. De inkább a lock-in-t preferálták.
[ Szerkesztve ]
-
HSM
félisten
válasz keIdor #47137 üzenetére
"Egyetértek, G-Sync ment már 30Hz/30fps felett is, FreeSync sok termék esetén meg csak 48-120Hz/fps tartomány."
Ez Freesync-nél is ezer éve adott, LFC néven, gyakorlatilag akárhány FPS-től működik a szinkron, ha elég nagy tartományt tud a monitor. Ma már külön tier, Freesync Premium néven futnak ezek. (Nem változott semmi, csak lett egy szigorúbb feltételekhez kötött matrica a megfelelő termékekre [link] .) A sajátom is ilyen, 48-144Hz-ig tud a panel, de mivel aktív az LFC, így vajsima 25-30FPS-el is, nyilván amennyire sima tud lenni 25-30FPS.
Nyilván nem a legolcsóbb freesync monitorok tudását érdemes összehasonlítani a G-syncesekkel, hanem hasonló képességű panellel felszerelteket.A G-sync modul előnye szvsz kizárólag az volt, hogy az overdrive-ot tudták vele frekvenciafüggően változtatni, ami sokáig biztosan hiányzott a Freesync megoldásokból. De ez a feature szvsz sehogy sem ér meg egy 300 dolláros modult, főleg szabvány kompatibilitás nélkül.
[ Szerkesztve ]
-
HSM
félisten
"például az hogy 2 évvel elöbb mutatták be"
Kb. igen. Ugyanakkor a már-már szokásos szabványtiprás mellett, ugyanis a DP1.2a már 2013 januárban hozzáadta a szabványos megoldást (adaptive sync), de az Nv-nek nagyon fontos volt fél évre rá egy saját, zárt, inkompatibilis megoldással megtrollkodni a piacot. Véletlenül sem a szabványt implementálták a moduljukkal...."már leglább 144 Hz működést, magas HDR fényerőt, minimum válaszidőt, meg hasonló jóságokat írt elő"
Elolvastad, amiket írtam? Azonos kategóriát kéne nézni. Ugyanúgy léteztek prémium Freesync megoldások is. Azok ugyanúgy tudták a HDR-t, fényerőt, 144Hz-et, stb. Az első G-sync monitor is gyakorlatilag úgy készült, hogy szereld ki egy a már létező ASUS VG248QE típusból a gyári scalert [link] ....Nézhetnénk úgy is, a Freesync lehetővé tette, hogy olcsó monitorok is hasznos plusz szolgáltatással bővüljenek gazdaságosan, lásd az említett olcsó 48-75Hz darabok. Ezek árából a G-sync modul sem jött volna ki, annak pedig magában még csak képe sincs.
-
HSM
félisten
válasz Busterftw #47143 üzenetére
"Ha az Apple is szabvanyozik, akkor nem lenne a piacon az usereknek ez a kenyelmi funkcio elobb."
Gondolom, kellett nekik, mint egy szelet kenyér... Egyébként vélhetőleg lényegesen kevesebb elektronikus hulladék keletkezett volna, ha hamarabb beállnak ők is az USB-C mögé."Nem tudom milyen fejfajasrol beszelsz."
Mondjuk arról, hogy kettévágták a piacot, vagy megvetted a méregdrága G-syncet, vagy nem volt synced. A szabványos adaptive sync monitorokat meg nem kezelték a kártyáik évekig. Ha pedig megvetted a méregdrága G-sync monitort, utána már csak Nv kártyával működött, mivel nem volt szabványos.A minőség biztosítására normális helyeken tanúsítványokat alkalmaznak, pl. HDR600 a VESA-tól [link] , nem pedig vendor lock-in-t.
-
HSM
félisten
válasz keIdor #47145 üzenetére
"Most már a legtöbb monitor eleve tudja mindkettőt. Ez előnyére változott"
Tévedés. A mostaniak csak az adaptive sync-et tudják, ami a szabvány. Csak erre nagy kegyesen az Nv ráhúzta a G-sync compatible matricát.
(G-sync, FreeSync a gyártók VGA oldali implementációinak a fantázianeve.)#47146 b.: " fogalmad sem volt mikor lesz erre válasz"
A Vesa szabvány előbb volt, mint a G-sync, akkor hogy is van ez? Persze, a szabványos scalerek (amik nem 300 dolláros felárral oldották meg a problémát) miatt valóban sok idő telt el, mire a szabvány is utolérte őket."Nem megy most sem a freesync rajt"
De, mennek a freesync-es monitorok rajta, mivel azok a Vesa adaptive syncjét használják DP-on. Persze, volt pár típus, ami HDMI-n az AMD saját szabadalmát használják, az valóban nem működik Nv-n.#47147 Busterftw : Van más is, pl. kompatibilitás, verseny.
Jó dolog az "innovációval" dobálózni, de veszélyes, ha ezzel csomagolod be a valójában versenykorlátozó gyakorlatokat.#47148 keIdor : Én akkoriban is AMD kártyákat használtam. De olvastam a fórumon is morgolódást, hogy volt, aki szeretett volna AMD kártyát, de a monitorán nem akarta elveszteni a sync képességet.
Az Nv-nek most eléggé bejött, hogy olcsó az 5nm, hogy nem viszik már úgy a csipeket. Ha nem ilyen lenne a gazdaság sokkal nagyobb előnye lenne az RDNA3-nak a chipletezésből.
#47149 keIdor : FrameGenjük fog jönni hamarosan az FSR3-al. Meglátjuk, milyen lesz. Az mindenképp jó pont, hogy menni fog az előző generáción, így remélhetőleg ki fogom tudni próbálni a 6800XT-men.
-
HSM
félisten
válasz Busterftw #47154 üzenetére
"szabványosítás és az innováció/verseny nem fér össze"
Pedig összefér, megfelelően koordinálva. Sőt, csakis úgy férnek meg jól egymás mellett. Pl. koordinálás nélkül az innováció monopolhelyzetbe csaphat át, lásd pl. vendor lock-in.Természetesen a szabványosítás lassítja valamennyire az új (jobb?) termékek piacra kerülését, ezt nem is vitattam.
Ugyanakkor számtalan súlyos valós probléma kezd már most is a féktelen innováció jóvoltából kibontakozni, aki nem barlangban él, annak szerintem nem kell magyarázni.
"Ez konkrétan miben nyilvánult meg?"
Tényleg magyaráznom kellene, miért korlátozza a versenyt a vendor lock-in?[ Szerkesztve ]
-
HSM
félisten
válasz Busterftw #47157 üzenetére
"Magyarazd meg konkretan, a G-Sync miben korlatozta a versenyt?"
Aki Nv kártyát vett, az csak hozzá való monitort vehetett. És fordítva is, aki már megvette a drága, jó minőségű monitort, utána kénytelen volt Nv kártyán maradni, mert más kártyán egy kulcsfontosságú képességet vesztett volna el.
És itt szó nincs innovációról, meg egyéb marhaságokról, mivel a kis 300 dolláros scaler működését ugyanúgy felprogramozhatták volna szabvány szerint is, főleg hogy a rajta lévő Altera Arria V GX FPGA modul elméletileg DP1.2a támogatású [link] . -
HSM
félisten
válasz Busterftw #47159 üzenetére
"nem akadalyozta az AMD-t "
Nem az AMD-t akadályozta, hanem Pistikét, aki monitort vett, hogy később az AMD kártyájával is használhassa, így később Pistike nem vett AMD kártyát. Nem olyan bonyolult ez.Nem azt mondtam, hogy nem volt innovatív a G-sync modul, azt állítottam, hogy nem az innováció tette szükségessé, hogy a szabványtól (ami már fél évvel korábban végleges formában készen volt, tehát VESA tagként az Nv ennél lényegesen korábban is már tudhatott róla!) eltérő, inkompatibilis módon valósítsák meg. A fix minőségű, G-sync logós scalarral (ez volt valójában az innováció) nyugodtan megjelenhettek volna szabványt is támogató módon, akkor lett volna verseny, mert Pistike döntésén múlt volna, milyen monitort milyen kártyával párosít.
[ Szerkesztve ]
-
HSM
félisten
válasz Busterftw #47161 üzenetére
"Nincs fix, jobb minoseg, nincs a monitor teljes tartomanyaban mukodo VRR, nincs 144Hz support. Ezeket az AMD meg +2 evvel kesobb hozta, ami mar 4 ev."
Miért ne lett volna? Ugyanúgy működhetett volna a scaler szabványos módon, az összes jósággal együtt, kb ugyanabban az időben. Akarat kérdése lett volna az egész.A többire.... Sajnálom, hogy ennyire nem érted. Én feladom ezen a ponton.
-
HSM
félisten
válasz Busterftw #47163 üzenetére
Az Nv implementációja ugyan miért késett volna? Az AMD ennyit vacakolt vele, de nem azért, mert szabványosan csinálták, hanem elsősorban ott úszott el a dolog, hogy megvárták a szabványt követő sorozatgyártott scalereket. Ha az Nv szabványosan oldja meg a kapcsolatot a saját 300 dolláros scalerével akkor nem hinném, hogy bármi jelentősebb csúszást okozott volna. Alapvetően teljesen ugyanazt a működési elvet csinálják, csak nem szabványosan. Ez így minimális igazítás a szoftveren, se több, se kevesebb.
-
HSM
félisten
"Optimalizáció egyértelműen nem jó"
Ez sok játékban megfigyelhető, sokszor szándékosan így csinálják, hogy maradjon kapacitás a processzorban a háttérfeladatoknak is. Amikor egy CPU-n elkezded a virtuális szálat is terhelni, az mindig a másik szál kárára történik, és onnantól kiszámíthatatlanabb a futás, ami egy "real-time" működésű játéknál nem feltétlen szerencsés. -
HSM
félisten
válasz Busterftw #47558 üzenetére
Évtizedes távlatban ez megy, csak egy XMP profil mellé is néha olyan feszek mennek a procinak, hogy hű...
Illetve elég régóta nincsenek figyelembe véve sem a fogyasztási limitek (jó lesz a maximum 4096W) illetve az sem, hogy ha minden mag aktív, akkor jópár típusnak csökkentenie kellene az órajelét...
Néha egész komoly utánajárást igényelt, ha az ember csupán a biztonságos gyári feszeken és paramétereken akarta hajtani a CPU-ját.... -
HSM
félisten
válasz proci985 #47563 üzenetére
Ráadásul az egyenletes eloszlás nagyon jóindulatú egyszerűsítés, mivel a hő jelentős része a magokon koncentrálódik, a méretben szintén jelentős IGP és cache-ek nem kifejezetten nagy fogyasztók.
Nem lepődnék meg azon sem, ha ilyen teljesítmények mellett szobahőmérsékleten már maga a foglalat is olvadóbiztosítékként funkcionálna. Illetve hűthetetlenség miatt a CPU is (thermal) throttlingba kezdhet 100 fokon, és akkor mindegy is a beállított limit.
[ Szerkesztve ]
-
HSM
félisten
válasz Petykemano #47567 üzenetére
Nem hiszem, hogy olyan jól állnának a konkurenciához képest, hogy ez beleférne. Főleg most, amikor ez így működik már amióta ez a Turbo rendszer be lett vezetve a Sandy Bridge óta.
Sokkal inkább ott a gond szvsz, hogy a beszámolók alapján brutális számban lehetnek most azok a CPU-k, amik nem bírják ezt, nyilván emiatt sok a garanciális probléma, és a negatív média visszhang sem tesz jót az eladásoknak, különösen, hogy a legdrágább, leggyorsabb otthoni flagship modellekről van szó.
[ Szerkesztve ]
-
HSM
félisten
válasz Petykemano #47578 üzenetére
Mikor melyik áll érdekükben. Ha egyik sem megy, akkor jön valami kitérő, pl. +50% Ai vagy hasonló.
#47577 proci985: Egy jó minőségű, legalább 6 hőcsöves, 12 centis ventilátorokhoz tervezett egytornyos léghűtő jól szellőző házban 150W-ot kényelmesen meghűt klíma nélkül is...
Elvileg egyébként az Intel dokumentáció erre ajánlja a PL1 limitet, hogy legyen úgy beállítva, amit még bír a hűtő tartósan. Mindenki kedvére testreszabhatja a működést a lehetőségei és igényei függvényében.[ Szerkesztve ]
-
HSM
félisten
válasz proci985 #47580 üzenetére
Azok többsége csak 4 hőcsöves, az elég nagy difi.
Amire én gondoltam, Thermalright Ultra 120EX REV.4, Alpenföhn Matterhorn, hasonlók. Én utóbbit használok a mai napig, a régi X58 rendszerem alatt vidáman hűtött kb. 200W-ot is: [link] . Most a Ryzen 5600 alatt nyilván jéghideg, azt passzívan is elvitte [link] .... -
HSM
félisten
válasz proci985 #47582 üzenetére
Persze, nyilván egy jó víz az ideálisabb, főleg 150W felett, ezt nem vitatom. Csak azt szerettem volna hozzátenni, hogy vannak azért olyan léghűtők is a piacon, amik kényelmesen és halkan elbírnak még 150W-al, vagy akár kicsit többel is, különösebb melegedés nélkül, megfelelő szellőzésű házban.
-
-
HSM
félisten
válasz proci985 #47586 üzenetére
800W már elég durva, az már fűtőtestnek is elmegy.
#47589 Petykemano : Érdekes teszt. De szerintem a konklúzió nem megalapozott. Egyfelől nagyon gyors, DDR5 7200-as memóriákat használt, ami csökkenti a cache jelentőségét. Másfelől cache memóriáknál nem nagyon van jelentősége néhány MB különbségeknek. Főleg 33MB és 36MB csak nagyon határesetben okoz különbséget, de a 24MB is ugyanazon nagyságrend. Ryzeneknél, amik jobban támaszkodnak az L3-ra, sincs egetverő különbség a 16MB-os és 32MB-os modellek között azonos órajelen, pedig az nagyobb különbség és a memória alrendszerük is lassabb valamivel. Cache léptékben nézve ami jelentős különbség, az az AMD-féle 3D-cache, ami háromszoros méretű L3-at eredményez (32MB szemben 96-al). Az már jelentősen képes növelni a találati arányt, ezáltal tehermentesíteni/gyorsítani a memória elérés sebességét játékokban. Valószínűleg a Ryzeneken sem lenne semmi jelentős előrelépés, ha létezne egy mondjuk 36MB L3-as modell, amit megmérhettek volna.
Tehát a mért értékekből szerintem határozottan nem következik, hogy az Intel nem gyorsulna egy mondjuk hasonlóan 64MB-os extra L3-szelettől.[ Szerkesztve ]
-
HSM
félisten
válasz Petykemano #47592 üzenetére
Hasonlóan emlékszem én is a 5600X és 5600G fronton.
Szerintem érdemes megnézni, mit mértek a 7950X3D-vel skálázódást a 7700X-hez képest: [link] .
Szerintem szépen látszik, hogy hiába háromszor akkora az L3, a sebességelőny bár jelentős, de nem földbe döngölős így sem. Megfigyelhető az is, hogy a gyorsabb memóriákkal szűkül az X3D előnye (ahogy utaltam rá). Sőt, néhány esetben a gyors ramokkal ott volt a 7700X is a lassú ramos 7950X3D nyakán.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: Alpha Laptopszerviz Kft.
Város: Pécs