- Telekom otthoni szolgáltatások (TV, internet, telefon)
- Microsoft Excel topic
- Crypto Trade
- Súlyos adatvédelmi botrányba kerülhet a ChatGPT az EU-ban
- MinDig TV
- Rendszergazda topic
- Mindenki AI-t akar, már 2025-re is eladták a HBM chipeket
- Proxmox VE
- Kapnak egy rakás reklámot a Roblox játékosai
- ArchiCAD és Artlantis topik
-
IT café
OLVASD VÉGIG ALAPOSAN MIELŐTT ÚJ HOZZÁSZÓLÁST ÍRNÁL!!!
Új hozzászólás Aktív témák
-
lee56
őstag
válasz lezso6 #13627 üzenetére
Szerintem ő úgy értette hogy melyik radeonokkal tud együtt! dolgozni coopban, nV-vel aligha. És a radeonoknak is csak egy szűk rétege, amivel ez működik (Kaverinél nem is tudom pontosan hirtelen melyekkel).
A kérdés inkább az, hogy javult-e valamit a dualgraphics mint feature, az előző változatokhoz képest. Mert amiket eddig olvastam róla,, hát nem éppen ajánlott dolog. Több a gond vele, mint amennyi hasznot hoz.. És ha jól emlékezek, erről egyik slide-on sem volt új infó.
[ Szerkesztve ]
No Comment
-
devast
addikt
-
dezz
nagyúr
válasz lezso6 #14183 üzenetére
Nem kizárt, de CPU-knál egy kicsit nehezebb ügy, mert nagyobb különbségek vannak a mikroarchitektúrák és CPU-családok között. Másrészt ez leginkább esetleges új belépőknek lenne érdeke, a meglévőknek kevésbé.
(#14184) Fiery: Igen, arra gondoltam, és egy példa volt arra, hogy bár nem mindenkinek tetszett az sem, elkerülhetetlen volt.
A Samsung azért eléggé az élvonalban van chipgyártásban, azt sem lehet mondani, hogy kis összegeket fektetnek be, most már a GloFo is tőlük licencel gyártástechnológiát. Az Apple nem tudom, mit gyárt házon belül.
Az AES pont rossz példa, hiszen céláramkör végzi el a feladatot, amit GPU-kba is simán beépíthetnek.
-
Abu85
HÁZIGAZDA
válasz lezso6 #14183 üzenetére
A nanométer csak egy szám. Sokszor teljesen lényegtelen az adott gyártástechnológia jellemzésénél. Sokkal komplexebb ez az egész, hogy egy számmal leírható legyen a lényeg. Nagyon sokat számít manapság a gyártáshoz használt thin library, ami főleg szoftver, és nagymértékben befolyásolja a végeredményt. Sokkal nagyobb mértékben, mint a szám a nanométer előtt.
Példaként említve a Kabini->Mullins esetét. Nem történt előrelépés a nanométerben, de új thin libraryt használtak. Az eredmény, hogy a Mullins harmad akkora fogyasztáson hozza a Kabini teljesítményét. Mindenképp ölnek pénzt a fejlesztésbe, de manapság kezd irányadóvá válni, hogy azt a pénzt nem biztos, hogy a kisebb csíkra érdemes költeni, ha az automatikus dizájnkialakításért felelős szoftver cseréjével ennyit tudsz javulni.
Szerk.: A 20 nm alatt már leginkább feltételezzük, hogy mit lehetne tenni, hogy jobb legyen. Ma sokkal többet költenek a bérgyártók/gyártók arra, hogy megértsék a kvantumfizikát, mint régen. A legnagyobb ellenség a Heisenberg-féle határozatlansági reláció. Ez nagyjából a 2000-es évek eleje óta létező probléma és minden generációváltásnál egyre jobban felerősödik. Jelen pillanatban nem találjuk a jelenség megkerülésére a megoldást, ezért az történik, hogy megpróbálunk elhatárolódni tőle (úgymond tudjuk hol a fal és a fal előtt maradunk, hogy ne ütközzünk bele ... a beleütközés egyébként drámai fogyasztásnövekedést okoz, ezért kerüljük). Szerencsére ez lehetséges, viszont így jöttek a többmagos processzorok, jött az integrált grafikus vezérlő, és ma már világos, hogy ennek a koncepciónak is meg lesz a saját fala, tehát fel kell készülni arra, amikor a gyakran használt feladatokat teljesen célirányos processzorok látják el. Ezért is nem csak az IGP-kre terjed ki a HSA, hanem akármire, mert ha nem találunk megoldást a problémára, akkor vagy elkezdünk rendkívül specializált DSP-ket és akár FPGA-kat rakni a lapkákba, vagy elfogadjuk a jelenség létezését, és a teljesítményt szimplán a fogyasztás drasztikus növelése mellett emeljük. A probléma az, hogy nagyon mobil irányba tartunk, így azt a piac nem fogja benyelni, hogy a teljesítmény növeléséhez a fogyasztást mindenképp növelni kell. Ma az a norma, hogy nőjön a teljesítmény és csökkenjen a fogyasztás.
Vannak még nagyon érdekes tanulmányai az NVIDIA-nak, hogy a GPU-k sokkal szabadabban tervezhetők, mint ahogy azt eddig sejtettük. Ezzel a mostani GPU-k jellemző pJ/FLOP értékét a tizedére is le lehet vinni, tehát az is egy reális alternatíva, hogy a GPU-k falát odébb toljuk, hogy később ütközzünk bele. Ugyanez megtehető a CPU-kra is, de a bonyolultságuk miatt a pJ/FLOP maximum a felére csökkenthető, amihez viszont radikálisan új ISA is kell. Ez egy régebbi MIPS tanulmány. Sajnos ezt úgy értékelik, hogy nem éri meg a fejlesztést.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
P.H.
senior tag
válasz lezso6 #14193 üzenetére
A microarch - hülyén megfogalmazva - egy nagyon oda-vissza dolog: a HSA pár tucat utasításával mindent meg lehet csinálni (még kevesebb utasítás is elég lenne, pl. a lebegőpontos számok kezelése leginkább bitbirizgálás, régen a 286-386-486 időkben a fordítóprogramok belefordították a programokba a sima integer utasításokkal való végrehajtást arra az esetre, ha nincs FPU), a többi (micro)architektúra 1000+ utasításai csak arra vannak, hogy egyes eseteket/helyzeteket gyorsabban lehessen megoldani (pl. SIMD esetén 2/4/8/16/32 számpárt ugyanannyi idő alatt mondjuk összeadni, mint egyetlen párt; vagy AES is volt eddig, csak most gyorsabb; az AVX is csak közel 2x gyorsabbá tenne bizonyos utasításfolyamokat, ha kihasználnák a programok).
Ezt viszont a leghatékonyabb kihasználni közvetlen kódban; fordított/köztes rétegeket felhasználó nyelvekben ez a hatékonyság csökken. Pl. Abu szerezi emlegeti a pJ/FLOP-ot mint mérőszámot alkalmazni, ami nyilvánvalóan nő, ha a futtatott kódot fordítani is kell előtte.
Ilyen szempontból az x86/x64-nek is csökkenni tűnik a hatékonysága, mivel ezt is úgymond fordítani kell chip-en belül, viszont azt is hozzá kell venni, hogy az x86/x64-nek így sokkal nagyobb a kódsűrűsége, mivel változó hosszúságú utasításokat használ; ezért pl. egy natív x64 programrésznek kb. harmadannyi az I-cache igénye, mint egy IA-64-é és kb. feleannyi, mint egy ARM-é; így kevésbé költséges pl. loop cache-t építeni bele. Ilyeneken is múlik az energiahatékonyság.[ Szerkesztve ]
Arguing on the Internet is like running in the Special Olympics. Even if you win, you are still ... ˙˙˙ Real Eyes Realize Real Lies ˙˙˙
-
P.H.
senior tag
válasz lezso6 #14196 üzenetére
Neked és #14195 Abu-nak: A gyártástechnológiai fejlődés lassulásával egyre inkább jönnek elő az olyan "okos" dolgok, mint pl. ez. Az ilyesmit nehéz leírni, és nyilván az Intel és az ARM is kínál(ni fog) hasonló "okosságokat". Igen, eljött a kora az ilyesminek is; most sajnálhatjuk, hogy nem korábban.
Arguing on the Internet is like running in the Special Olympics. Even if you win, you are still ... ˙˙˙ Real Eyes Realize Real Lies ˙˙˙
-
Vitamincsiga
tag
válasz lezso6 #14183 üzenetére
Kellett kicsit rágódni a felvetéseden!
Kell ilyenfajta fejlesztés is mindenképpen! A kompatibilitáshoz mindig csak addig ragaszkodnak, ameddig a fejlődés üteme vagy töretlen, vagy szinte zéró és szükség sincs rá.
A CPU-ra a második felvetés jó ideig - ami a szükséget érinti - nem lesz igaz. Szeretnék egy olcsó, 8K-s, +200"-os monitoron, 16-bit csatornánkénti színmélység mellett, 120Hz-en a kedvenc játékom valamelyik jövőbeni részét játszani! De ki nem?
Az első viszont megint válságban van.
A magasabb IPC és a hosszabb futószalag volt az egyik irányzat. P4 volt a másodiknál a megálló, illetve az AVX512 se tetszik mindenkinek.
A 10 GHz bukása volt a másik törés a fejlődésben. Ha egy mag kevés legyen több! De ez is olyan mint a macska: 2 felett tömeg; kezelhetetlen.
De volt aki máshogy gondolta, mert hitt benne, hogy az gyorsabb lesz. A GPU felemelkedése és integrációja a CPU-ba ez a folyamat, ami jelenleg is tart.És itt jön képbe a HSA virtuális ISA-ja! Még ha szoftveresen is, de nagyon hatékony választ ad a fokozódó teljesítményigényre. Hogy HW-be is meg merné-e lépni valaki? Ha kevés más út lesz és ebből is lehet többletteljesítményt nyerni, akkor biztos lesz, aki ezt is megpróbálja!
Amit a többen is felvetettek, az a gyártástechnológia finomítása. Az AMD a Beema és a Mullins fejlesztésébe szinte mindent beleadott. Ahogy egy korai teszt írja: "nincs benne hiba". Gondolom a Carrizo sem lesz rosszabb!
De, lehet, hogy a fentiekből semmi sem lesz!!
Valaki rájön, hogyan lehet a grafént "félvezetésre bírni"
Vagy a szilicén is könnyebben gyárthatóvá válik
Vagy az optikai áramköröknél történik valami használható fejlesztés
QSZG
De egy tény, a fenti hibákat akkor is el fogják megint követni újra[ Szerkesztve ]
Jó lenne egy varázsgömb ;-)
-
lee56
őstag
válasz lezso6 #14243 üzenetére
Igen, elvileg majdnem minden területen nagyot tudnának változtatni az APU-k, ha végre eljutnánk odáig hogy meg legyenek hajtva, és nem csak grafikával.. Szerver szinten is vannak próbálkozások.
A Kaveri viszonylag gyenge X86-os teljesítménye is csak most fájó még. És pont erről beszéltem, ez a baj megint, piacra dobtak, egy nagyon az iGPU-ra kihegyezett processzort (ami a jövőben azért vélhetőleg tényleg nagyon jó lesz, feltéve ha addigra nem avul el teljesen..), amikor még alig van hasonló (najó valahol el kell kezdeni az igaz) közös virtuális címteret kezelő APU, nem beszélve a programokról, amik ki tudnák használni..
Pár év mulva kellett volna ezt csak meglépni, addig meg mondjuk finomítani az FX vonalon vagy egy teljesen új architechtúrát bevetni. De még az is jobb lett volna ha kicsit kisebb IGP-részt terveznek (most még) hozzá, az arányokon biztosan könyebb módosítani útközben, mint egy új architechtúrát megtervezni a 0-ról.
No Comment
-
Fiery
veterán
válasz lezso6 #14255 üzenetére
A fejlesztok kozul a jatekfejlesztok alltak ra maximum az ujgeneracios konzolokra. Furcsa lenne, ha azt hinné barki is, hogy a szoftverpiac kizarolag jatekokbol all. Aki pedig nem erintett a jatekfejlesztesben, annak irrelevans hogy a konzolokban mi van. A PC-s fejlesztoi kozosseget a PC foglalkoztatja, azon kell nagyot guritani a HSA-val.
-
Fiery
veterán
válasz lezso6 #14259 üzenetére
Azt probaltam -- igaz, roviden -- elmagyarazni, hogy azok a fejlesztok, akik konzolra keszitenek szoftvereket (ez ugye altalaban jatekot jelent), tipikusan olyan jatekfejlesztok, akik jatekokat fejlesztenek es nem mast. Egy id Software vagy Crytek nem fog PC-re tomorito programot vagy video enkodert fejleszteni, vagyis hiaba szerez jartassagot egy ilyen cegnek dolgozo jatekfejleszto az AMD APU-ra epulo konzolok segitsegevel mondjuk a HSA fejlesztesben, azt nem fogja tudni mashol hasznositani, mint maximum PC-s jatek fejlesztesben. Arra ugy gondolom, kicsi az esely, hogy valaki feketeoves (konzol) jatekfejlesztobol atkonvertalja magat altalanos szoftver fejlesztove -- de persze elofordulhat.
Az AMD APU-ra epulo konzolok remek lehetoseget adnak az AMD-nek arra, hogy a sajat megoldasait atvigye a PC-s jatekok vilagaba is, es ezzel tegye vonzobba a Kaverit ill. Carrizot; de a konzolok nem fognak segiteni abban, hogy az altalanos PC-s szoftverek fejlesztoinek konnyebb dolga legyen a HSA-val. Aki PC-re fejleszt nem-jatek-szoftvert, az nagy ivben tojik a konzolokra. Maximum jatszik rajtuk egyszeru gamerkent, de nem erdekli a konzolos fejlesztes semmilyen szinten.
[ Szerkesztve ]
-
Fiery
veterán
válasz lezso6 #14638 üzenetére
En azt mondom csupan, hogy a HSA kapcsan az AVX-et kidomboritani egy AMD topicban eleg erdekes otlet. Az AMD-nek az segitene, az lenne az erdeke, hogy az iGPU-n fussanak a szoftverek, hiszen GPU-bol tudnak baromi jot kesziteni. Ha a HSA arra lesz a legjobb, hogy az AVX-et vegre kihasznalja, azzal az AMD nem nyer semmit a jelenlegi APU-ival... De persze felolem beszelhetunk a HSA+AVX komborol, csak nem latom ertelmet ebben a topicban
-
Petykemano
veterán
válasz lezso6 #15661 üzenetére
Szerintem nem önmagában a C2D volt a szenvedés oka. Bár kétségtelenül jobb volt, mint a Phenom II. Szerintem azért szenved azóta, mert a C2D ellen csak a - röviden - bénán sikerült Bulldozert tudták kiállítani.
Kicsit hasonlatos a jelenség a Fiji-hez. A Maxwellből kipakolták ami nem kell, és repült. A Fiji láthatólag egy egyensúlytalanul továbbfejlesztett lapka, aminek csupán egy része kapott brutális (+45% shader) fejlesztést, nyilván azért, mert arra számítottak, hogy mire kijön már minden fejlesztő felgyújtja magát, hogy aszinkron compute-olhasson és akkor ezzel majd így 40-50%-kal elléphetnek a konkurenciától. De nem jött be, a kanyarban sincs még az Aszinkron compute, így most a Fiji bukdácsoló háromlábú kutyának tűnik.Üzletileg rossz, elhibázott, vagy a céget nehéz helyzetbe hozó döntéseket más cégek is hoznak:
- nvidia fermi kazánok
- intel látható szenvedése a 14nm-rel (Broadwell és Skylake összecsúszás, Emergeny Lake bevezetése, tick-tock megcsúszás)
- Qualcomm Snapdragon 810
- Microsoft Ballmer időszak (Nokia felvásárlás)
Persze egyik másik cég életében jobban vagy kevésbé látszik meg, vagy kevésbé/rövidebb ideig van megkötve a keze. Még Rory Read mondta, hát talán már két éve, hogy a következő másfél évet fogcsikorgatva azzal kell kibekkelni, ami van: a bulldozerrel. Mert nincs más.Nekem meggyőződésem, hogy abban, hogy eddig elhúzódott ez a helyzete az AMD-nek, az is ludas, hogy nem volt más gyártástechnológia, mint a 28nm. Amin persze sokat fejlődtek, de bizonyára más lett volna a kép, ha van rendes 20nm mondjuk 2014 elejétől. (Ami volt a TSMC-től az nem volt rendes, erre utal a 810 melegedése) A carrizo és a fiji is (és az Amur és a Nolan) - szerintem - eredetileg a GF 20nm-es eljárására lett tervezve, amit végül dobtak és valami mentő ötlet kellett.
Mindenesetre a helyzet ez: Van egy rossz architektúrád egy adott gyártástechnológián. Át nyilván nem szabhatod az egészet, mert az túl sokáig tart. Reszelgessed úgy, hogy a fix gyártástechnológia fogyasztási és lapkamérete okán gyakorlatilag nem adhatsz hozzá tranzisztorokat.Találgatunk, aztán majd úgyis kiderül..
-
apatyas
Korrektor
válasz lezso6 #16005 üzenetére
Neeem.
1 intel mag = 100%.
1 intel mag + 1 HT mag = 100% + 30%, az utóbbi a többlet teljesítmény az alap maghoz képest.
130% /2 = 65% ha egyenlően osztjuk el a mag+ a HT szál között. Erre mondta a másik kolléga, hogy a HT hatékonysága 60%. Ami így elég hülyén van kifejezve, mert az alap teljesítményre csak 30%-ot tesz rá.(Ugyanezt ha a Bulldozerre számolod ki, az jön ki, hogy 80% + 80% = 160%, így ott a modul második fele +60% teljesítményt ad hozzá az elsőhöz.)
Viszont, amíg a BD modul második felét egyszálas ámde jól optimalizált, "sűrű" programmal sehogy sem tudod kihasználni, addig az intel magnál egy "sűrű" program az egész magot leterheli, ezért nem jut erőforrás a virtuális szálat futtatni. Ha meg mégis azt is munkára fogják, akkor a két szál konkurál a valós erőforrásokért, így hátráltatják egymást.
[ Szerkesztve ]
pezo77 #5 2017.12.14. 13:29 Hmm. És ez az e-hajó akkor hol is tud kikötni? Az e-bay -ben? ;)
-
Oliverda
félisten
válasz lezso6 #16007 üzenetére
"Én meg már néztem, hogy akkor az OS-ok ütemezőjét kéne frissíteni a bullhoz hasonlóan, hogy jó legyen a HT-s teljesítmény, azaz minden szál lehetőleg külön magon menjen."
A frissítés régen megtörtént, az ütemező ennek megfelelően terheli az egyes szálakat, először minden magra egy szálat oszt ki, és majd csak ezután "tölti fel" a többit.
(javítottam a linket)
[ Módosította: lezso6 ]
"Minden negyedik-ötödik magyar funkcionális analfabéta – derült ki a nemzetközi felmérésekből."
-
-
-
Fiery
veterán
válasz lezso6 #16942 üzenetére
A gond az, hogy a CPU foglalat (AM4) eleve erre a 24 savra lett kialakitva. Ezen nem tudsz boviteni foglalat csere nelkul Tehat ha a kulso chipsetet elhagyod, az nem lesz igazi HEDT -- viszont SZVSZ bevallalhato kompromisszum, ha a Zent minel elobb piacon akarja tudni az AMD. Es igen, szemmel is eszreveheto mertekben olcsobba teheti az alaplapokat, ha nem kell rajuk chipsetet integralni. Plusz, ha a chipsetet elhagyod, es amugy se tudsz egy csomo PCIe slotot ill. 1-nel tobb M.2 slotot telepiteni a lapra, akkor kapasbol ertelmet veszti a full-ATX form factor, lehet csupan mini-ITX es micro-ATX formatumu lapokat tervezni. Azzal pedig me'g olcsobbak lehetnek az alaplapok.
Igy leirva az egeszet, elejetol a vegeig, egy egeszen hiheto forgatokonyvnek tunik. Ha az alaplap gyartok elkezdtek egy csomo full-ATX formatumu alaplapot tervezni az AM4+Promontory kore, de a chipsettel show-stopper problemak vannak, es kenytelenek uj alaplapokat tervezni, az megmagyarazna a hirzarlatot is. Mondjuk az egy egesz kicsit fura, hogy nem latszik az AMD-n belul sem nyoma egy ilyen, Promontory nelkuli AM4 referencia platformnak, de lehet, hogy a hirzarlat ilyen eros lett. Vagy egyszeruen me'g az AMD sajat, uj referencia platformja sincs me'g kesz... Viszont ha az kesz lesz, es a Zen is jol halad kozben, akkor siman lehet, hogy egyszerre kezdik teriteni a Summit Ridge-et es a(z AM4-es) Bristol Ridge-et a partnerek fele...
-
Z10N
veterán
válasz lezso6 #16972 üzenetére
Mert mondjuk mas egy 45W-s br-t etetni, mint egy 95W-s zen-t. Ezenkivul mar alapon is tud melegedni. Ertem en, hogy oem lap, de csak a nagyon budget lapoknal sporoljak le. Egy teszt lapnal meg nem jo ha throttlingol. Akkor a 2x6pin lesz a tap gondolom, ha nem koveti az atx szabvanyt.
[ Szerkesztve ]
# sshnuke 10.2.2.2 -rootpw="Z10N0101"
-
Oliverda
félisten
válasz lezso6 #17326 üzenetére
És az a játék hány magot vagy szálat tud rendesen kihajtani? 16-ot valószínűleg nem, így pedig nem sok értelme van foglalkozni az eredményekkel. A tesztelő jobban tette volna, ha 1 perc alatt lefuttat egy Cinebench-et.
Petykemano: Ez az üzleti processzorok specifikációnak összehasonlítása. Nem tudom, hogy sikerült ebből kikövetkeztetni, hogy a konzumer szegmensben majd a Bristol Ridge megy az i5-ök ellen.
[ Szerkesztve ]
"Minden negyedik-ötödik magyar funkcionális analfabéta – derült ki a nemzetközi felmérésekből."
-
félisten
válasz lezso6 #17410 üzenetére
Minden tekintetben az intel útját járja végig az AMD.
- volt egy rövidebb futószalagos, kis frekit tudó architekturájuk: K10 - Pentium 3
- kitalálták, hogy húde jó lenne nagyobb freki, építsünk hosszabb futószalagot: Bulldozer - Pentium 4
- hú, ez nem jó így, csináljunk újat rövid futószalaggal, de először csak kicsiben: Jaguar - Pentium M
- elég jól haladunk, csináljuk meg nagyban is: Zen - ConroeCsak mindezt 11 év késéssel.
Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html
-
PuMbA
titán
válasz lezso6 #17546 üzenetére
Én letöltve, MPC-HC-ban néztem, azért gyorsabb Lényeg a lényeg, hogy egy AMD APU processzorból sose tolja ki böngészőből a videót szaggatás nélkül, ez tuti. Elmúlt az az időszak, hogy a procira lehet hagyni a videó dekódolást FullHD felbontás felett, muszáj a hardveres gyorsítás.
(#17548) stratova: Nem hiszem, én a Complete YouTube Saver nevű Firefox pluginnal szedtem le a videót, csak ezért tartok a gépemen Firefoxot, messze a legjobb cucc.
[ Szerkesztve ]
-
Balala2007
tag
válasz lezso6 #17680 üzenetére
És a Keccak?
Az csak azota plane, hogy eloleptettek SHA3-nak, ez 2015 augusztusaban volt a wikipedia szerint, az Intel HW SHA-t meg mar 2013 juliusaban speckoztak.
Ami katalizalhatna az SHA3 ugyet az, ha pl. ARMv8.3-ba beraknak, az SHA1/2 is foleg a konkurencia miatt kerult be az x64-be tudtommal.AIDA64.com
-
Yutani
nagyúr
válasz lezso6 #17948 üzenetére
Végül is ha versenyképes terméket tesznek le az asztalra, akkor nem árt, ha az egyszeri vásárló is levágja, hogy melyik Intel tiernek felel meg az adott AMD CPU.
Jó hír, hogy lesznek leválogatott darabok, amelyek ugyanúgy 95W-on jönnek, de jó OC potenciáljuk van.
#tarcsad
-
HSM
félisten
válasz lezso6 #17950 üzenetére
Halkan jegyzem meg, Intelnél is van ám kavarás bőven.
Csak néhány ütősebb példa... Eredetileg a HEDT 6-magosokat i9-nek akarták, végül i7 lett. Nem gáz, hogy az 5. generációval frisebb négymagos Skylake i7-ek sebességét hozza kis tuninggal... Így legalább a tömegnek is lehetett i7-e....
Másik... Notis i7-ek. 2 Maggal+HT. Még az i5-re rá lehet fogni, hogy a kétmagos i3 turbózva, de hogy +1MB L3-tól i7 legyen?
Harmadik kedvenc, a Pentiumnak elkeresztelt Atomok (abba bele se menjünk, hogy mindenhol négymagos prociként jó nagy felhajtásuk is lett)... Miközben egy korabeli Celeronból is volt rendes Haswell magos....Ami persze a mindennapok szempontjából leglényegesebb egyszálas teljesítményben bucira verte a kettő meg négymagos Atom/Pentiumokat, miközben hozta a szintet sokszálon is...
Szval ugyanúgy simán lyukra lehetett futni az Intel nevezékével is, ha nem néztél be a dolgok mögé....
[ Szerkesztve ]
-
Fiery
veterán
válasz lezso6 #18051 üzenetére
Az SSE se erdekelt senkit 16 evvel ezelott, mára viszont meg mar teljesen termeszetes, hogy SSE utasitasokat hasznal egy random szoftver. Az AVX elterjedesehez is ido kell. Az viszont teny, hogy a Zen architekturaban abszolut vallalhato kompromisszum (trade-off) az AVX/FMA egysegeken valo sporolas. Ami mar akár a Zen+ -ban is "javithato".
-
lee56
őstag
-
őstag
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Az ide nem illő hozzászólások topikja:[link]
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva.
- Milyen TV-t vegyek?
- Gördeszka topic
- Az NVIDIA szerint a partnereik prémium AI PC-ket kínálnak
- Telekom otthoni szolgáltatások (TV, internet, telefon)
- Xbox Series X|S
- Anglia - élmények, tapasztalatok
- Konzolokról KULTURÁLT módon
- BestBuy ruhás topik
- Milyen billentyűzetet vegyek?
- 3D nyomtatás
- További aktív témák...
- Beszámítás! Intel Core i5 6500 4 mag 4 szál processzor garanciával hibátlan működéssel
- Hibátlan - AMD Ryzen 5 2600 - 6 mag 12 szál 3.4GHz + gyári hűtő
- AMD Ryzen 3600 (pár napig használt)
- PROFESSZIONÁLIS Delid / Relid AMD Ryzen Processzorokhoz, garantált minőségben! (CSAK AM5!)
- Beszámítás! Intel Core i3 10105 4 mag 8 szál processzor garanciával hibátlan működéssel