Új hozzászólás Aktív témák
-
HSM
félisten
válasz Petykemano #5850 üzenetére
Annyit tennék hozzá, hogy a mostani, GPU-s monolitikus megoldás biztosan "drága", gyakorlatilag két chipletnyi területű 7nm wafer kell hozzá. Tehát egy 5900X/5950x-hez elegendő 7nm kapacitást visz el, ami igencsak nem kevés. Ezt nem hiszem, hogy a csomagolás és IOD költsége ellensúlyozni tudná. Persze, a belépőkategóriára egyik sem ideális. Arra a kékek is egy alaposan megkopasztott monolitikus megoldást szoktak hozni, kérdés, egy kisebb költségvetésű szereplőnek megérné-e egyáltalán ebbe invesztálni.
-
HSM
félisten
válasz Petykemano #5854 üzenetére
Úgy látszik, ez most a szokás, hogy a következő generációban adják el a "befejezett" terméket. Renoir->Lucienne, most a Cezanne->Barcelo. Vajon mi "maradt le" a Cezanne-nál?
-
HSM
félisten
válasz Petykemano #5856 üzenetére
Magonkénti feszültség állítás, CPPC, mélyalvást tudó memória vezérlő a lényeges pontok. Érdekes innen az utolsó fejezet, de felsorolnak minden "újítást": [link] .
Főleg a P-states CPPC helyett azért számomra kicsit fájó, főleg, hogy a CPPC még az asztali Renoir-ban is úgy tudom aktív.Persze, ettől függetlenül jó és gyors a Renoir, de erősen úgy tűnik, hogy nem minden funkciója készült el "időre".
[ Szerkesztve ]
-
HSM
félisten
válasz Armagedown #5868 üzenetére
Haha, és épp a konkurens CPU gyártó friss termékének tesztelésének hetében jönnek elő ezek a lassulásos "gyerekbetegségek"...
[ Szerkesztve ]
-
HSM
félisten
válasz hokuszpk #5874 üzenetére
Elvileg ugyanaz marad, mint a Rocket Lake procikban. Nem egy gémer álom, de egy alap HTPC vagy irodai felhasználásra szvsz tökéletes.
A mobil verziókba mennek majd az erősebb IGP-k.Az aktuális Ryzenes Vega IGP-re szvsz nem lesz veszélyes 3D teljesítmény tekintetében.
[ Szerkesztve ]
-
HSM
félisten
Volt egy jó írás még a Renoir-ról, van benne magméret összehasonlítás a teljes L3-as verzióval: [link]
Illetve szerintem érdekes, hogy egy ilyen Renoir 15W-os verzióban gyorsabb Cinebench-ben (2935 pont, forrás: [link] ), mint az új 12900K takarékos magjai (2572 pont, [link] forrás: [link] ).
Illetve az is rendkívül érdekes lenne, illetve szerintem akár alternatív opció lehet AMD oldalon, hogy különbözőképpen paraméterezni firmware-ből a magjaikat. Pl. egy "szoftveres" takarékos mód, ahol néhány magot megjelölnek "takarékos" magnak, és az OS ide rakhatja a kis igényű dolgokat, és ezek a magok ilyenkor nem turbóznának, hanem egy hatékonyságra optimalizált órajelen működnének, mint a mobil csipek esetén is.
Egyébként a jelenlegi magjaikon is lehet ilyesmit "buta" módon, én pl. előfordult, hogy kikapcsoltam a turbót a Ryzen 3600-asomon, mert kb. elfelezte a fogyasztást és bőven elég nagyon sok mindenre 3,6Ghz-en is, lásd mérésem [link] .
Ha a hybrid magdizájn rákényszeríti a szoftvereket, hogy külön kezeljék az erős/hatékony magokat, így külön magdizájn (és ezzel járó hátrányok) nélkül is tudnának ebből profitálni.Az meg már csak hab lenne a tortán, ha pl. lenne egy magasabb és alacsonyabb cache méretű verziója a csipleteknek, amiket lehetne kombinálni. Pl. elvileg lesz egy speciális Zen4 verzió [link] , elég komoly számok a dupla sűrűség és energiahatékonyság, több, mint 1.25X-ös sebesség mellett, bár nyilván itt azért érdemes megvárni azért a tényleges eredményeket.
-
HSM
félisten
válasz S_x96x_S #5951 üzenetére
"Az AMD szerencséje, hogy a Desktop- AlderLake-en a Big-Little miatt ezt nagyrészt nem lehet elérni, de szerver szinten elég ütős tud lenni, hogyha a program ki tudja használni."
Nem hiszem, hogy asztali alkalmazásoknál ennek bármi jelentősége lenne. Szerveres téren sem túlzottan nagy az elterjedtsége, nem véletlen, hogy szervereken is tarolt a Zen3, hiába nincs AVX512 benne."A korai Inteles AVX-512 implementációknál - annyira átmelegedett a chip; hogy az AVX-512 -es utasításoknál vissza kellett szabályozni magát .. csak, az volt a probléma, hogy a teljes rendszert lefolytotta."
Szerintem hibás a gondolatmeneted. A probléma abból eredt, hogy Intel rendszereken minden magnak közös a szorzója, nem tudnak különböző órajeleken és feszültségeken üzemelni. Ez asztali CPU-k esetén is igaz, hogy pl. aktív AVX2 feldolgozás esetén csökken az elérhető maximális órajel (AVX offset). Ennek nincs köze a csip "átmelegedéséhez", főleg nem ennek következtében történő szabályozási folyamatokhoz. Természetesen AVX mellett nagy valószínűséggel melegebb lesz a csip, valamint a jelenlegi Intel implementációkon az AVX-mód váltásnak is van némi költsége, ezeket is írja is részletesen az optimalizálási dokumentáció. Ugyanakkor a tapasztalatom az, hogy tömény AVX feldolgozás esetén sokkal nagyobb mértékben nő a teljesítmény, mint a fogyasztás, ami kompenzálja az órajel csökkenést: [link] (AVX1 vs. AVX2, "POUT" vs Gflops.).
Probléma leginkább az általad linkelt cikkben szépen leírt esetben van, ahol nagyon sokféle a feldolgozás, és az utasítások nagyon kis része AVX-es, így a módváltás költsége és az órajelcsökkenés már nagyobb veszteség, mint amennyi tempót hoz maga az utasítás készlet abban a kevés utasításban.
Ilyen esetben pl. a jelenlegi Ryzenek máris komoly előnyben vannak, hiszen azok képesek magonként eltérő órajelen üzemelni és AVX-offset sincs legjobb tudomásom szerint.Én amúgy továbbra sem vagyok meggyőződve róla, hogy az AMD-nek valóban az AVX512-t kellene erőltetnie, én jobban örülnék egy inkább általánosabb felhasználásban erős koncepciónak (ahogy a korábbi Zen-ek), ahol pl. csak kiegészítő feture az AVX512, kb. mint az első Zen-eknél a sima AVX2, ahol az alapvetően 128bit széles architektúra két órajel alatt végezte el a 256bites műveleteket. "In the Zen/Zen+ microarchitecture the floating point physical registers, execution units, and data paths are 128 bits wide. For efficiency AVX-256 instructions which perform the same operation on the 128-bit upper and lower half of a YMM register are decoded into two macro-ops which pass through the FPU individually as execution resources become available and retire together. Accordingly the peak throughput is four SSE/AVX-128 instructions or two AVX-256 instructions per cycle." [link]
-
HSM
félisten
válasz S_x96x_S #5953 üzenetére
"Vagy legalábbis a kettő erősen összefügg"
Ok-okozati viszony létezik, a túlzott melegedés throttlingot okoz, de minden lassítása a CPU-nak throttling, így nem csak ez lehet az oka."you might be running at half the advertised frequency"
Itt azért nem mindegy, mit definiálunk "advertised frequency"-nek. Ha a turbó órajelet, akkor az alapból jócskán csökken ha sok a terhelt mag, és még tovább csökken, ha vektoros a kód. Ha alapvetően ez lenne a trend, akkor semmi értelme nem lett volna belerakni, ennyire nincs azért elrontva a rendszer. És igen, mint írtam, van az a szituáció, amikor érdemes lehet kerülni/kikapcsolni (vegyes kód, alacsony AVX512 tartalommal).Idézet a linkedről: "It is hard for me to get terribly depressed at the fact that a benchmark I specifically designed to make AVX-512 look bad sees a 3% performance degradation on one core."
Alapvetően egyébként én is szoftverfejlesztői szemmel nézem a dolgokat, de tény, hogy nem adatfeldolgozási területről. -
HSM
félisten
válasz S_x96x_S #5957 üzenetére
IO mániásnak most jó lehet lenni... Egyre központibb kérdéssé válik az egyre nagyobb és komplexebb rendszerek összetevőinek összekötése.
Az optimalizálás jópofa dolog, eléggé bele lehet feledkezni. Mondjuk én mostanában főleg Java nyelven ennyire nem vagyok CPU-közelben.
-
HSM
félisten
válasz S_x96x_S #5962 üzenetére
Nekem elég durva pazarlásnak tűnik egy nyolcmagos, 180mm2-es lapkával meghódítani egy olcsó, négymagos tömegtermék piacot. Főleg, hogy a mostani hatmagosok is relatív igen kedvező árúak a képességeikhez képest.
Erre elég lenne egy négymagos CCX, feleakkora GPU-val, megnyirbált IO-val, feleekkora méretben.
[ Szerkesztve ]
-
HSM
félisten
válasz Petykemano #5966 üzenetére
A látottak alapján nem hinném. Inkább a selejtek elszórására lehet reális, esetleg valami speciális piaci szegmens lefedésére.
Tömegterméknek viszont a Monet lenne pl. ideális, egyértelműen. Vagy egy pici 7nm-es "Monet"-szerűség, és a lényeg itt a lapkaméret, ezáltal a lefoglalt gyártási kapacitás és költség.
Amúgy fellapoztam mit árulnak a hatmagos Renoir árazása alatt (4500U/5500U alatt) itthon és Intel oldalon valami Celeron-Atom dolgokat találtam, az elvileg ~60mm2 + a PCH. [link]
Nyilván teljesítményben sem említhető egy hatmagos Renoir közelében sem...
Illetve AMD oldalon valami Athlon 3050U-t, erről kevés az infó, ami biztos, két Zen mag régebbi gyártástechnológián, ez sem fog Cinebench rekordokat döntögetni. Elvileg Dali néven fut.
Ilyen szempontból egyébként a Renoir is sokkal jobb, mint a Cezanne/Barcelo, hiszen az is 30mm2-el kisebb lapkával hozza a 8 magot és jó teljesítményt, abból is gazdaságosabban lehetne valami olcsó(bb) négymagost faragni.#5967 S_x96x_S : "a zsíros EPYC eladásokhoz képest"
Valószínűleg igazad van. Ugyanakkor stratégiailag komoly jelentősége lehet más piacok meghódításának is. És szerintem akár az asztali 3000-es és 5000-es, akár a mobil 4000-es és 5000-es széria hozta amit kell, gyakorlatilag új standardot és komoly árversenyt hoztak két piacon is, miközben a teljesítményükhöz képest egyáltalán nem nagyok, vagy drágán gyárthatóak. Szerintem a prémium és a mainstream szegmens közép-felső részét ezekkel azért jelentős profit termelése mellett nagyon szépen le lehetett fedni. Persze, amióta léteznek hiány van az ezekkel szerelt pl. laptopokból, de azért nem beszerezhetetlenek, én is most egy hatmagos Renoir-ról írok (4650U), ismerősi körben is van egy elégedett 4500U tulaj. Viszont az is egyértelmű, hogy egy natív nyolcmagos lapka komoly GPU-val és gyorsítótárakkal nem feltétlen optimális megoldás jól megvágva belerakni kevésbé teljesítmény és extrém módon költség érzékeny termékekbe. Valamint presztízst és profitot sem hoz úgy sokat.[ Szerkesztve ]
-
HSM
félisten
válasz S_x96x_S #6009 üzenetére
Ezt írja az előző idézeted: "which make them miss crucial factors in system level design such as peak power being too high, density being too low, and clock speeds being pushed too far"
Ez egyébként erősen paraméterezés kérdése is. Hülye példa, de talán szemléletes, hogy notebookokban ugyanaz a Cezanne APU konfigurálható 10-től akár 60W-ig is.
Szerverekben is pl. kompromisszum, hogy az AMD a jelenlegi "pici" chipletes megoldással kedvezően tartja az előállítás költségét, de pl. a fogyasztás tekintetében számottevő hátrány lehet a sok IF link szükségessége.
Ugyanakkor nagyon kíváncsi leszek a már beharangozott Zen4c magokra, lehet éppen ide hoznak vele előrelépést? -
HSM
félisten
válasz Petykemano #6011 üzenetére
"Kiváncsi vagyok, hogy vajon ebből a fogyasztásból mennyiért tehető felelőssé az infinity fabric."
Szvsz nem kevésért. Szerintem régi, de nagyon jó mérés a témában: [link] . Persze, azóta sokat javítottak az egyes IF linkek fogyasztásán, de több lett a linkek száma is. -
HSM
félisten
válasz S_x96x_S #6013 üzenetére
"de nem olyan egyszerű a lefelé skálázás"
Ugyanúgy, ahogyan a felfelé skálázás sem. Minden rendszernek megvan az optimális mérete, ahol jól működik."Amúgy eddig chipletes mobil proci se nagyon volt;"
Egyébként várható? A mobilban, főleg az alacsony fogyasztású régióban kritikus a fogyasztás, ahhoz pedig hogy az minél alacsonyabb lehessen fontos a komponenseket minél közelebb és szorosabban integrálni egymáshoz. Chipletet én igazából csak a magasabb TDP osztályokban tudok elképzelni, 45W és felette."az X86 hozzá van kötve a magasabb FREQ-hoz."
Ez az asztali piac sajátja.
A Ryzenek igencsak jól skálázódnak 4Ghz alatt is, nem véletlen tudnak igencsak harapós 8-magos CPU-t kínálni 15W-os keretből (Renoir, Cezanne), és a szerverek esetén is igencsak fontos összetevője ez, hogy olyan sikeresek és egyáltalán tudtak hozni annyi magot, amennyit. Sajnos szerverekben a sok mag összekötése relatív energiaigényes, ez a kritikus kérdés. Szerintem sokkal inkább ezen fog múlni, melyik megoldás lesz sikeres, nem a magokon vagy frekvenciákon. -
HSM
félisten
válasz Petykemano #6021 üzenetére
-
HSM
félisten
válasz S_x96x_S #6024 üzenetére
"a Graviton3-as történet mögött is ez van - energihatékonyság."
Ez rendben van. Én ahogy írtam a #6020-ben, egyáltalán nem mindegy, mi a tervezési cél és prioritás, amikor létrehozták az adott rendszert. Az AMD a chipletes megoldással egyértelműen a gyártási és tervezési költségek hatékony hasznosítását priorizálta, amit szvsz nagyon jól tettek az adott piaci környezetben. Még a mobil APU-k is ugyanígy IF linken kapcsolódnak, csak egy monolitikus lapkán belül. Ezzel nincs semmi baj, három piaci szegmenst (mobil, asztali, szerver/WS) is sikeresen letaroltak ezzel a megoldással 6-tól 64 magig biztosan. Ez a rendszer nagyon jól teljesít ezekben a szegmensekben, ugyanakkor nem feltétlen ez fogja tudni a legextrémebb energiahatékonyságot. Már a tervezésnél is figyelembe kellett venni pl. az asztali és laptop piacot is, ahova kellett pl. a magas egyszálú teljesítmény. Egyébként könnyen lehet erre a piaci igényre lesz válasz a Zen4c mag, amit kifejezetten a magas magszámú környezetbe szánnak [link] .
Én egyébként az M1-ek kapcsán sem látom azt, hogy "letarolnák" hatékonyságban a jelenlegi, pl. Cezanne APU-t, ha figyelembe vesszük pl. a tranzisztor számot, vagy egyéb, költségekkel, konfigurálhatósággal összefüggő dolgokat. -
HSM
félisten
válasz Petykemano #6047 üzenetére
"akkor is látható, hogy a néhány.éve még mainstreamben utazó 16GB-os gépek nagyon hamar korosodnak majd."
Ezt mi támasztja alá? Most is alig van mainstream "végfelhasználói" program, ami 16GB-nál többet kér, pedig akár 128GB is beletömhető egy mainstream rendszerbe évek óta DDR4-en is. -
HSM
félisten
válasz S_x96x_S #6049 üzenetére
+1.
"persze a valóságban - azért itt is vannak bug-ok .."
Azt írja, a régi Raven Ridge-el voltak bajok. Amúgy úgy tudom az SME és TSME nem ugyanaz (ők is úgy tudják: [link] ), nekem van itthon egy Ryzen 5 Pro 4650U, annál BIOS-ból tudom kapcsolni a TSME-t, és az elvileg az OS számára (is) láthatatlanul titkosítja a teljes memória tartalmát, minimális teljesítményveszteség árán. Szvsz bizalmas, vállalati környezetben igen hasznos lehet. -
HSM
félisten
válasz S_x96x_S #6051 üzenetére
A PS5 jogos pont, ugyanakkor PC-re is jön a DirectStorage Api, ami komolyan besegíthet. A win10 sem eszik amúgy meg 4GB-ot, ez is még javulhat, de legrosszabb esetben is 32GB még nagyon sokáig overkill lesz szerintem a "mainstream" usernek otthonra.
A mobilokban lévő rengeteg ram amúgy nem feltétlen fog bármi igényt generálni PC oldalon. 6GB ram van a mostani telefonomban (szűk 3 éves akkori felsőkategória), nem hiányzik belőle több, pedig eléggé power userként használom. Gondolom, jól mutat a terméklapon 12GB, de hogy mi értelme...
"telefon+ pc kombót - 32GB RAM-al
amit csak dokkolsz otthon vagy a munkahelyen.
És a CXL-nek hála .. a dokkoló a CPU magokat és memóriát is megduplázza .."
Szerintem szálljunk vissza a földre a rózsaszín álomvilágból. Hiszem, ha látom. Nekem ez nem tűnik jól megvalósítható realitásnak.#6052 Petykemano : "akkor lehet spórolni azon fejlesztési időt, hogy beférjek-e valamekkora ram kapacitásba"
Persze, lehet valamennyit, de 16GB kapacitásból így sem lesz 32."ha nyitva van neked kétféle böngészőt, 20-25 füllel"
Itt a probléma, hogy nem zárogatják be a nem használt füleket, valamint, hogy a Chromium minden lapot kb. saját böngészőmotorral futtat.Tehát az én meggyőződésem, hogy attól, hogy az átlag gépbe könnyű lesz 32GB ramot rakni, nem fogja maga mögött vonni az igények gyors emelkedését. Itt is érvényes, hogy minél több ramod van, annál kevesebbet nyersz újabb hozzáadásával, pl. a 4GB-ról 8GB-ra bővítés is azért olyan durva előrelépés, mert miután az OS és egyéb gyorsítótárak megesznek kb. 2GB-ot, már egyáltalán nem mindegy, hogy 2GB maradt szabadon, vagy 6. A 8-ról 16-ra váltásnál is még viszonylag sokat nyertél. A 32GB már ennyit szvsz nem fog hozni az átlag usernek még évekig. Persze, szoftveres oldalon mindent 'el lehet kellőképpen rontani', élénkítendő a userek fejlesztési kedvét. De én most a műszakilag indokolt ram méretet vettem figyelembe, szigorúan nem számolva bele az intenzív swappelés lehetőségét, mert az erősen rontja az élményt és hatékonyságot.
[ Szerkesztve ]
-
HSM
félisten
válasz S_x96x_S #6054 üzenetére
"Aki megint egy 10 éves langyosvizes ciklusra tervez,
az koppani fog."
Én csupán azt mondom, hogy attól, hogy a user gépében ott a 128GB ram, még semmi értelme nem lesz, nem lehet majd kihasználni. Mint mikor megjelentek a négymagos processzorok, igen kevés szoftver tudta úgy igazán kihasználni őket. De még mostanság is sokszor előfordult, hogy egy fürge 4-6 magos CPU játékokban pl. gyorsabb, mint egy 18 magos munkaállomás, ami nyers erőben a többszöröse annak."- ajánlott gépigény: 16GB RAM + (+4GB VRAM) ~ 20 GB"
Erről beszéltem. 16GB rendszermemória = 16GB."csúcs GPU-hoz.. akár 64GB memória is elkell"
Képzelem, milyen sok buffer kell még a rendszermemóriából 24GB VRAM mellé. -
HSM
félisten
válasz S_x96x_S #6056 üzenetére
"heurisztika:
Dupla annyi maghoz/threadhez - dupla annyi memória kell."
Ez egy rossz heurisztika, mivel ez igencsak alkalmazás/felhasználás függő.
Legyen példának a Cinebench R23. 1-szálon most épp nálam 2327MB ram foglalás, 12 szálon 2460MB. Ebből nem gazdagodnának meg a memória gyártók még egy durvább Epyc mellett sem.[ Szerkesztve ]
-
HSM
félisten
válasz S_x96x_S #6059 üzenetére
"Mert attól még a 100 program "jelentős" részére ugyanúgy igaz marad az állításom. "
Ezért rossz heurisztika, mert nem lesz igaz. Rengeteg program nem is skálázódik akármeddig, elindít max mondjuk 8 szálat és nem is tud többet. A legtöbb program egyébként is csak "worker"-eket indít, amik egy nagy megoldandó feladat részeredményeit számolják. Ehhez egyszer kell a nagy feladatot eltárolni (memória), a szálak már lényegesen kevesebből beérik. -
HSM
félisten
válasz S_x96x_S #6061 üzenetére
"És ha azt mondjuk reflexből - a te heurisztikád alapján - hogy 8GB vagy ha van pénze akkor 16GB;"
Az én heurisztikám, hogy megkérdezem, mire fogja használni a gépet, és mik az elvárásai és anyagi lehetőségei, az elsődleges szempont pedig a felhasználási terület. 8GB-ot legfeljebb netezős/"office" felhasználásra szoktam javasolni, nyilván relatív olcsó gépekbe, arra bőven elég (csak mértékkel a Chromium-al )."ahol a 4 csatornás memória - 32 mag felett már eléggé visszafogja a teljesítményt."
Anandék tesztje épp az ellenkező konklúzióra jutott: [link] .
De ez szerintem nem igazán kapcsolódik a témához."Talán te valószínűleg nem telepítesz fel új programokat, beéred a régi 5-10 éve megjelent játékokkal, felhasználói programokkal a következő 5 évben is"
Fogalmam sincs, ezt a következtetést miből vontad le. Szakmámból kifolyólag nem engedhetem meg magamnak a luxust, hogy ne legyek naprakész szoftver ügyileg.
A saját példám alapján a korábbi kétmagos laptopomon is nagyjából 20GB kellett a kényelmes munkavégzésemhez, a mostani 6-magoson is éppen ennyi kell. Pedig a heurisztikád egészen mást mondana erre."akkor nem árt a ráhagyás a tervezésben ---> vagyis a fölé tervezés."
Szerintem ez egy nagyon rossz taktika. Főleg, ha a modern DDR5-ről beszélünk, mostani árakon, amikor kb. negyed millió forint egy 32GB-os kit. [link]
Sokkal előrelátóbb, ha valakinek ma elég 16GB, akkor 16GB-ot vesz, és pár év múlva, ha kevésnek bizonyul, már jó eséllyel ehhez képest gombokért fog tudni venni vagy mégegy kitet, vagy egy egyben nagyobbat, gyorsabbat.[ Szerkesztve ]
-
HSM
félisten
válasz S_x96x_S #6064 üzenetére
"ahol a szűk keresztmetszet a memória sávszél, ott számít."
Nyilván... Ugyanakkor így nem áll meg általánosan, hogy visszafogja, hiszen csak néhány specifikus felhasználásban van mérhető különbség."Amúgy valószínüleg erős 16 maggal és 64 GB memóriával még kényelmesebb lenne ( Gen4-es SSD-vel alatta )"
Persze, több/erősebb mag mindennek jót tesz, de 64GB rammal éppen semmire sem mennék, egy átlagos munkanapon a 70%-át sem érem el a jelenlegi 24GB ramom maximális használatának. Ugyanakkor egy 16 magos munkaállomást hurcolni lényegesen kényelmetlenebb lenne, mint a mostani 14"-os, 1,5kg-os ultrabookot.
A Gen4 nem hat meg, már rég nem a sávszélesség az NVMe szűk keresztmetszete, sokkal inkább a NAND késleltetése. Maradok a jól bevált Gen3-as Samsung 970 Pro-mnál."te meg egy 2 és 6 magos példát hozol."
Gondoltam így is átmegy a mondanivalóm. Ugyanígy igaz lenne 32 magra, mit csinálnék a heurisztikád szerint 128GB rammal?! Üresen állna belőle állandóan ~100GB, jó befektetés lenne. -
HSM
félisten
válasz S_x96x_S #6066 üzenetére
"de ez alá bemenni kockázatos. ( ~ érhetnek kényelmetlenségek )"
Továbbra is az a meggyőződésem, hogy kellemetlenségek akkor érhetnek, ha ilyen ökölszabályokra bízod, ahelyett, hogy alaposan átgondolnád, és utánanéznél, mennyi ramra is lesz szükség egy adott felhasználásra, különös tekintettel figyelembe véve (és lehetőleg elkerülve) a bővíthetetlen memóriájú konfigurációkat. Én ezzel zárnám is a témát.[ Szerkesztve ]
-
HSM
félisten
válasz Petykemano #6104 üzenetére
Itt szerintem a pénz is játszik... Minek tartsák meg a kicsi TR vonalat, amikor úgysem tudnak eleget gyártani és konkurencia sincs... Akinek nem elég az AM4 teteje, legalább fizethet többet a PRO-ért.
Majd ha lesz konkurencia, meg nagyobb termelés, majd feltámasztják ezt is. -
HSM
félisten
válasz S_x96x_S #6108 üzenetére
Az utolsó két pontod szerintem a lényeg. És hozzávehetjük, hogy a jóval olcsóbb TRx4 CPU-k sok felhasználási módnál alig lassabbak a TRx8-nál, tehát gyakorlatilag a saját prémium termékeik elől szívnák el a keresletet az olcsóbban adott, de lényegesen alacsonyabb profitrátájú alternatívával....
Illetve a TRx4 "HEDT" funkciója is szvsz elveszett, mióta az AM4-ben is elérhető akár 16 mag is.
-
-
HSM
félisten
"az intel árazásai mellet a 5600X elégé drága dolog"
Azért azt ne felejtsük el, hogy a 12400F-et elég cudarul visszafogták, ha minden igaz, a maximum 4Ghz órajelével.
Illetve az 5600X a jelenleg elérhető konkurens modellektől nem marad el sokkal ár/értékben sem: [link] .
Nekem is tetszene egy jóárasított sima 5600, kérdés, hogy ennek mennyi realitása van, amikor drágább termékekbe is elkel minden 5000-es chiplet. -
HSM
félisten
A belátás egy dolog, más dolog, hogy megérné-e nekik ezért egy új csipet tervezni, ami vélhetőleg más, fontosabb piaci igények elől vonná el a fejlesztőket és a gyártási kapacitást.
A 12400F-re szvsz hozható versenytárs a jelenlegi megoldásokkal, a 12100F ellenében viszont nem ártana egy kisebb csip, hogy gazdaságos is legyen azon az árszinten. -
HSM
félisten
"De azért a konkurencia is közbe fejlődik,+ az intel magának gyárt, így őket nem fogja vissza a TSMC készlethiány."
Pont ezért tehetik meg, hogy terveznek egy gazdaságosan gyártható i3-at is, míg az AMD vélhetőleg jobban teszi, ha nem erre a piacra fókuszálja a jóval korlátozottabb lehetőségeit. Pl. érkezőben a Rembrandt, az igen kritikus lesz a mobil Alder Lake variánsok ellen a prémium/ultraportable mobil szegmensben.A visszaportolt 12nm egyébként nem lenne rossz ötlet, fel is reppent párszor a pletyka (Monet), kérdés, hogy megfelelő fogyasztást és órajelet el tudnának-e vele érni úgy.
Egyébként van még egy érdekes fejlesztésük, a Van Gogh, arra is azért kíváncsi lennék, pl. mekkora fizikai méretből sikerült kihozni (4mag Zen2 + RDNA GPU, Steam Deck). Bár vélhetőleg az sem egy ideális olcsón gyártható tömegtermék alap.
[ Szerkesztve ]
-
HSM
félisten
"De a fogyasztok nagy része azt veszi ami árban is elérhető."
Szerintem ne az itthoni helyzetből induljunk ki... Értem én, hogy olcsó, meg ár/érték, de túlzottan nem egy erős CPU. Viszonyításképp, az ultrahordozható ~15W-os laptopomban erősebb CPU van, amiről most írok... (Ryzen 4650U) Az asztali Ryzen 3600 pedig lesöpri őket tokkal vonóval, pedig azt sem egészen 60K-ért vettem, tehát erősen "budget" opció volt.#6124 Petykemano : Sajnos nem tudom megítélni, megkésett-e, elég kevés róla az információ(m).
"egy Zen2-es CPU-val szerelt APU kissé elavultnak tűnik"
Ezt viszont határozottan nem gondolom problémának, a Zen3 legnagyobb dobása, hogy egyesítették a korábbi kettévágott felépítést, de 4 magnál ez a Zen2 hátrány egyáltalán nem jelentkezik. Így azt gondolom, ez is így "elég jó". Persze, belerakhatnának egy Zen3-at, de szvsz leginkább papíron nézne csak ki jobban.
Azért lenne szvsz érdekes a magméret, mert abból lehetne következtetni, mennyire lenne gazdaságosan gyártható belépő terméknek, de sajnos erről semmit nem találtam. Ugyanakkor a Renoir APU pl. elég nagy, ~150mm2 , az nem jó ilyesmire. [link]
A mag képe alapján jó alaposan meg kéne nyirbálni a GPU és IO részeket is, hogy lényegesen kisebb lehessen: [link] . Azért sem vagyok benne biztos, hogy a Van Gogh jó lenne ilyesmire, mert ott vélhetőleg még nőtt is a GPU rész, a fél CPU elhagyása önmagában még nem teszi picivé a csipet, így az inkább prémium hordozható gépekbe lehet ideális, mint pl. a Steam Deck, és kevésbé tűnik ideálisnak olcsó tömegterméknek.Persze érdekes kísérlet lenne ezt kihozni asztalra, azért lehet, hogy akadna piaca a jó IGP-nek egy nem túl erős CPU-val. Ez jó alternatívája lenne a régi, igen gyenge IGP-jű i3-aknak. A Kaveri-s időkben olcsóbb volt a GPU, és gyengébbek az IGP-k.
[ Szerkesztve ]
-
HSM
félisten
válasz Petykemano #6158 üzenetére
"Ami nagyon meredek az az 1-1 priority és LTDP mag között megosztott 1MB L2$. Ez most egyfajta visszakanyarodás/visszanyúlás a Bulldozer irányba?"
Ez egy nagyon jó megoldás is lehet. Ha ez így van, bármelyik takarékos magról minimális késleltetéssel átrakható lehet egy feladat a gyors közös L2 révén az ahhoz a maghoz tartozó erős magra. Szvsz egy jobban megvalósított, ebben a formában sokkal életképesebb Alder.#6162 Devid_81 : Már a Renoir-ban is egész erős iGP volt.
#6164 Devid_81 : A mostani Vega IGP azért nem felsőkategóriába való. Valószínűleg az újabbaké is kevés lesz ahhoz. De egy erős, költséghatékony belépő/alsó középkategóriának igencsak jónak ígérkezik.
-
HSM
félisten
válasz Devid_81 #6166 üzenetére
"Is 1080p Max possible?
My goal for integrated graphics is for it to be suitable one day for 60 FPS gaming at 1080p maximum settings. At these settings, we're asking a lot of the graphics solution to do lots of compute, sometimes with memory bandwidth that just isn't there. A normal suite does a few of these 1080p Max tests, and the results are almost always dismal:
The short answer is no. You're lucky to break 10 or 20 FPS in most cases." [link]Sajnos, ezt 2-vel megszorozva sem lesz óriási teljesítmény. Persze, régebbi vagy nem túl GPU-intenzív játékokra, vagy közepes részletességű, nem túl magas képkockasebességű FHD játékra jó lehet.
Ez a teszt is érdekes: [link] .Én egyébként éppen tegnap próbáltam ki a StarCraft2-t a Ryzen 4650U IGP-n, ~20W TDP-n egész szépen (jóindulattal 60 FPS körül) futott 1080P maxon. A régebbi lassú IGP-khez képest ez egy csoda, de egy akár 4-5 éves középkategóriás dedikált GPU-tól is még relatív messze van, lásd az előző teszt GTX1060-asát.
[ Szerkesztve ]
-
HSM
félisten
válasz Busterftw #6168 üzenetére
Hogy érted?
Én úgy tapasztalom, a középkategória az 1080P 60FPS-t célozza ma is maxon legalább. Sőt, az új konzolokkal már inkább a 60FPS és felette a cél. Más kérdés, hogy a VGA-k viszont drágultak, és így sokan ragadtak sokéves régi középkategóriás kártyákon, ami a legőújabb címekben inkább csak 30 FPS környékére jók, pl. [link] . -
HSM
félisten
válasz Petykemano #6170 üzenetére
Pedig mintha lett volna olyan AMD szabadalom, hogy bizonyos magok plusz utasításokat tudnak. Ez lenne a logikus, azért teljesen felesleges külön magokat dedikálni, hogy csak egy korlátozott perf/watt tartományban dolgozhassanak, ezt ma is bármi meg tudja oldani FW/SW oldalról. Abban van jelentős takarékossági lehetőség, ha különbözőképpen optimalizált magjaink vannak, pl. lásd ARM oldalon az A5 és A7 magok különbségét.
[ Szerkesztve ]
-
HSM
félisten
válasz S_x96x_S #6174 üzenetére
Valószínűleg az ár lesz itt a nagyon érdekes, mennyiért sikerült mindezt kihozni.
"Don’t get me wrong here, I think the technology is great. But in order for AMD to keep the same margins, it might be more expensive than people think."Azért gyanús, mert csak az 5800X kapta most meg. Szerintem ez inkább "halo product" lesz (akár a 12900KS), mint bármi más, egy chiplettel relatív olcsón megússzák, és egy kitűnő techdemó, mellé megszerzik vele a leggyorsabb gaming CPU címet is és némi gyártástechnológiai tapasztalatot is.
#6176 S_x96x_S : És ha már költségek, a Rembrand sem lett pici, 200mm2+. Ahogy sejthető volt, hiába 6nm, az sem lesz éppen olcsó tömegtermék alap, sőt.
Nekem tetszik, amit eddig látni belőle, bár kissé aggaszt a Pluton támogatása. Ha nem lesz kikapcsolható, akkor nekem biztosan nem lesz ilyen CPU-m. -
HSM
félisten
válasz S_x96x_S #6180 üzenetére
"( vagyis asszimetrikus architektura és szoftvert kell optimalizálini)"
Egyébként ezt még szvsz egész jól lekezelhetnék a szoftverek, hiszen az ütemező már generációk óta tudja kezelni a preferált magokat. Tulajdonképpen egyébként a mostani 2 CDD-s Ryzenek is ilyenek, egyik CCD általában magasabb órajelekre képes turbózni. -
HSM
félisten
válasz S_x96x_S #6182 üzenetére
"vagyis az átlaghoz képest - túlérzékeny vagyok ebben a témában."
//Üdv a klubban.Én már annak idején a Ryzeneknél felemeltem a hangom, hogy a 4-magos CCX-ekre bontás, és magonként eltérő turbó órajelek nem feltétlen fognak minden szoftvernek jólesni. (Diplomatikusan fogalmaztam. ) Itt a harmadik ábrán látszik is: [link] .
Ezek után engem már különösebben nem érdekel a dolog. Az új generációs processzorok jól átdobták a labdát a fejlesztőknek, oldják meg a probléma nehezebbik felét. Nekem ez különösebben nem tetszik (az Alder kapcsán is leírtam), nem tartom szerencsés iránynak, a legtöbb szoftverfejlesztőnek/cégnek nem lesz erre költségvetése/prioritása, hogy az összes elborult felépítésű processzoron jól fusson az elkészült software-stack...Szerintem egyébként ez még jóval enyhébb, mint a big-little, itt azért azonos magokról beszélünk, csak az L3 mérete (így a hit-rate) különböző. Az se feltétlen borzalmas nagy baj, ha nem használod ki tökéletesen optimális kóddal, itt azért nincsenek olyan durva felépítési és egyéb korlátok, mint az Aldernél.
"és akkor ott vagyunk a "Thread Director" problémánál"
Szerintem alapvetően rossz ez az irány. Jó kis buzzword ma a gépi tanulás, de a jövőbe az sem lát. Szvsz más felépítés, ami felé mozdulni érdemes. Az AMD szerintem okos megoldást talált ki a skálázásra, az Alder-féle megoldás nekem inkább kényszer-szülte, erőltetett elképzelésnek tűnik. Ezt erősíti, hogy a középkategóriás asztali megoldásokból komplett ki is hagyták az e-magokat, és ME frissítgetésekkel próbálják tiltani, nehogy a user vissza tudja tudja kapcsolni a mesterségesen letiltott AVX512-t. Ez annyira vicces, hogy az már szinte fáj.[ Szerkesztve ]
-
HSM
félisten
"Starcraft 2 miatt meg kell a brutális ipc és órajel. Sajnos az a játék nagyon kéri az egyszállas teljesítményt."
Arra a játékra világbajnok ár/értéket tudott a 3300X. Arra szinte 1:1-ben tudtál volna cserélni, amíg lehetett kapni. De ilyesmire a friss, kedvező árazású i3/i5 Alderek is szuperek lehetnek majd egy olcsó B660-ban.#6190 S_x96x_S : Nagyon jó!
Nekem kicsit hiányoztak az információk amúgy a Barcelo-ról, mi is az tulajdonképpen, mi fejlődött a Cezanne-hez képest. Gondolom, önmagában +100Mhz-ért nem kapott volna új kódnevet.[ Szerkesztve ]
-
HSM
félisten
válasz Petykemano #6193 üzenetére
"és frekvencia regresszió ott már túl nagy lett volna"
Szvsz ennyire nem fogyaszt sokat egy gyorsítótár. Főleg, hogy spórol is a fogyasztáson, amikor nem a ramokból kell előszedegetni az adatokat."akkor igazán kiadhatták volna 6 magos verzióként is"
Ott valószínűleg a költség lett volna túl nagy, ezt írtam is korábban, hogy inkább felsőbb modelleken tűnik nekem ez reálisnak."A Zen4 eléggé készen levőnek tűnik"
Épp ez is lehet a magyarázat. Ha jól haladtak a Zen4-el, akkor felesleges lett volna késleltetni egy köztes generációval. A Rembrandt esetén kihozták, mert ott mobilra úgyis kellett a versenyképességhez egy új lapka kicsit erősebb IGP-vel, magasabb órajellel és jobb órajel kapuzással."De hogy a malacoknak a Zen3D-ből is csak egy sku jut annak szerintem a Milan/Milan-X-re való kereslet lehet inkább az oka"
Vagy ez, vagy a költségek. Az Alder verziók elég erős ár/értéket hoztak, azok ellen nem tűnik jó ötletnek bevetni egy költségeket jelentősen növelő, kapacitásokat foglaló, de a teljesítményen általánosan akkorát nem dobó technológiát. Így is mindenki egy olcsóbb 5600X-et követel, nem mégdrágább 5600X3D-t."Ugyanakkor nem érzem azt, hogy maga a termék olyan nagy port kavart volna."
Nem kavart nagy port, hiszen leginkább olcsóbb gépekbe került, ugyanakkor ott azért lehetett pár igen jó review-t olvasni főleg az 5500U ár/érték arányáról.
Bennem személyesen Renoir tulajként az kavart egyébként nagy port, hogy míg az asztali variánsok tudták, a mobilból kimaradt az a pár fontos funkció, és ez sehol nincs világosan leírva, így bennem is csak utólag tudatosult, mikor pár dolog "furcsán" működött a már kezemben lévő laptopon az asztali 3600-asomhoz képest, és úgy nem volt túlzottan kellemes meglepetés egy 1000+ eurós gépnél. -
HSM
félisten
Azonos órajelen lenne csak ezt értelme nézni. Illetve azonos csip-revíziókkal. Illetve az sem mindegy, hogy mennyi az eközben elvégzett munka. A kisebb L2-es modell azért is lehet elméletben hűvösebb, látszólag "takarékosabb", mert többet kell várnia adatra a memóriából, hiszen kevesebb esetben tud segíteni az L2.
-
HSM
félisten
válasz Petykemano #6199 üzenetére
"And besides, both Intel and Nvidia have far higher margins but neither has abandoned the low end."
Ezzel az a gond, hogy GPU téren az AMD is hozott kicsiket. CPU fronton viszont nagyon nem jó ötlet szerintem az Intelhez mérni, utóbbinál nyilván sokkal komolyabb tervezési, gyártási, anyagi kapacitások vethetőek be, ugye erre utal, hogy már a rajtra volt 4-féle Alder lapka variáns. Asztali piacra egy 8+8-as és 6+0-s [link] , mobil piacra pedig egy 2+8-as, 6+8-as [link] . Ehhez képest a pirosak egy generációban jó, ha egy asztali chipletet és egy mobil APU-t tudnak hozni. Azt gondolom, figyelembe véve a két cég piaci helyzetét és erőforrásait, valamint egy lapka elindításának rendkívül magas költségeit a modern gyártástechnológiákon, ez is szép az AMD-től."de az, hogy nem is keresett alternatív kapacitás-forrásokat olcsóbb termékekhez az már arra utalhat, hogy elengedi az olcsóbb termékekkel szerezhető piaci részesedést a magasabb margó és a magasabb részvényárfolyamokért cserébe."
Vagy egyszerűen csak arra is utalhat, hogy nem akar költeni olyan termékekre, amik már a megjelenésükkor sem lennének versenyképesek.[ Szerkesztve ]
-
HSM
félisten
válasz Petykemano #6209 üzenetére
"ha esetleg az 5800X kurrens árával összevethető lenne (~$350), akkor a ki venné meg kérdés pontosan annyira lenne érvényes itt, mint korábban"
Egy ponton sántít a kérdés. Én személy szerint 3600-ast vettem 2700(X) helyett, de az 5600X is szvsz jobb vétel a 3700X-nél. Mégpedig, mert a két mag hiányát kompenzálja a magasabb órajel és IPC. A V-cache esetén ez nincs így. Bizonyos kódok lehet gyorsulnak vele akár extrém esetben 40%-ot is, míg más kódokban akár lassul is, mert az órajel nincs meg, a magas cache találathoz pedig elég a szintén méretes 32MB alapkiépítés is.
Ebben a kérdésben én biztosan a sima 5800X-ért mennék, ha éppen annyiba kerülne a képzeletbeli 5600X3D is. És valószínűleg az AMD haszna is magasabb lenne az 5800X-en. -
HSM
félisten
válasz Petykemano #6218 üzenetére
Gondolom a kulcsszó a mennyiségi kedvezmény....
-
HSM
félisten
válasz hokuszpk #6229 üzenetére
"ez biztosan igyvan"
Én úgy tudom, nem teljesen van így. Ugyanis a dolog hátterében az (is) áll, hogy a 300-as lapoknál még kevésbé szigorú követelmények voltak a VRM vezérlőre, amit a 400-asoknál szigorítottak a megváltozott BOOST rendszer igényei szerint. Persze, biztos voltak lapok, amiknél már a 300-asra is olyan vezérlő került, ami megfelelő, de mivel nem volt előírva, így nem biztos, hogy minden lapon megfelelő van. Rakd össze ezt az 5000-esek tovább finomított PB algoritmusával meg curve optimizer, meg már alapból túl pici BIOS-chipek, és máris látszik, hogy mi okozza nekik a fejfájást.#6231 hokuszpk : "szvsz inkabb azt oldjak meg"
Terjeszd be a JEDEC-nek, hogy követeljék meg a DDR5 memóriák DDR4 foglalattal való kompatibilitását.
Új hozzászólás Aktív témák
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen
Cég: Promenade Publishing House Kft.
Város: Budapest