-
IT café
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
lenox
veterán
válasz
paprobert #48457 üzenetére
De amugy most azt nem ertem, hogy ha nem lenne 5xxx, akkor mindenki szepen venne tovabb a 4xxx-et. De van 5xxx, oke, kb. ugyanaz, kicsit nagyobb memory bandwidth, meg tobb sw feature, tehat semmi kulonos. Azert ez nem rosszabb, mintha csak 4xxx lenne. Oke, azt hazudtak, hogy 5070=4090. De hat atlatunk a szitan, es magunkban tudjuk, hogy bekaphatjak. De akkor most mi a gond? Nem adjak tobbert, nem rosszabb, oke nem is jobb, csak kicsit, hat ennyit tudnak. En orulok hogy amit hasznalok nem full elavult, es nem kell ujat szerezzek, ennek is van 960 GB/sec mem bandwidth-e. Turingrol azert upgradelnek, ha uj gepet raknek ossze, de Ampere-rol, Ada-rol mar nem. Menjenek csodbe, oke, de amugy nem olyan rosszak ezek az 5xxx-ek, szerintem pont annyira megerik, mint az elodok, talan egy kicsit jobban is.
-
-
Abu85
HÁZIGAZDA
válasz
paprobert #45279 üzenetére
Persze, hogy olcsóbb a GDDR6 és a szélesebb memóriabusz. De itt nem az a lényeg, hogy most olcsóbb-e, hanem olcsóbb lesz-e mondjuk egy év múlva. Mivel az aktuális generáció ismét két-két és fél évre készül, figyelembe kell venni azt, hogy az életciklus során hogyan alakulnak majd az árak, és a kezdeti egy-két hónap ára ugyan hihetetlenül magas lehet, ugyanazzal a problémával, mind a GDDR6X-nél, de arra számítanak, hogy fél év múlva azért már nagyobb lesz a GDDR7-re az igény, így a memóriagyártók elkezdenek túltermelésbe futni. Aztán gyorsan összeesik majd az ár, ha ez megtörténik.
A köztes generáció így jó fejlesztési alap is lehet, hiszen jöhetnek új GDDR7 memóriák, amikkel növelhető 2025 végén a VRAM. Ez különösen hasznos az NV-nek is, hiszen jövőre rá tudják kényszeríteni a most vásárló réteget arra, hogy frissítsenek a Super verziókra.
Mellesleg szó sincs jelenleg 1000 dollárról. Jóval több lesz az ár. Ezen túlmenően a 4 nm-es node egy relatíve olcsó opciónak számít ma már. Azért nem váltottak 3 nm-re, mert az túl drága.
[ Szerkesztve ]
-
-
válasz
paprobert #44956 üzenetére
Hát, ez elég sokat mozgolódott, ahogy az NVIDIA próbálja egyre feljebb pozícionálni az olcsóbb chipeket. Ha egyszer lenyeltük, hogy az xx80-as kártya a 104-es chippel jön (GTX 680 generáció), akkor onnantól kezdve az xx60-as kártya tudása valahol az xx80 (és nem a csúcskártya) 40%-a és 2/3-a között mozgott, egészen a 4060-ig, ami egy glorified 4050. A csúcskártya pedig eddig jellemzően 40-60%-kal volt az xx80 felett. A csúcskártya fele kb. az xx70 szokott lenni, szóval ha az 5080 tényleg ezekkel a specekkel jön, akkor azt fogjuk látni, amit az előző generációban a 4060-nal, az xx80 is lecsúszik egy osztállyal.
Vegyétek, vigyétek! -
TESCO-Zsömle
félisten
válasz
paprobert #44956 üzenetére
Nem akarlak kiábrándítani, de még a TITAN RTX idejében is a 2070-es volt az, ami GPU-ban a felét tartalmazta a csúcs csipnek. RTX40 vonalon a 4060-as konkrétan negyede a 4090-nek. De tény, a leírtak alapján ez egy 5070-es, viszont abból inkább a Ti Super.
[ Szerkesztve ]
-
válasz
paprobert #43529 üzenetére
Szerintem működhet éppen rendszermemórián is ha jól látom, ami PC-n azért elég jól jöhet ha kevés a Vram a kártyán. Pl a 4070 super -4070Ti egy elég bika kis kártyak, de kevés a Vram RT alatt néhány esetben.
Vagy Hát lehetséges hülyeség ,de az is lehet hogy a Microsoft érkező kézikonzoljában is támaszkodna erre valami belépő RT ben. -
válasz
paprobert #43527 üzenetére
Itt kifejezetten az RT ben való előrelépést szorgalmazza ilyen szempontból. Ha jól értem az egész BVH struktúra ketté vagy inkábbb hármom felé lenne szedve legalább is nekem ebből, a 7.oldalból [link] hasonló jön le nekem.
Egyből amit folyamatosan használ és amit ritkábban használ az egy másodlagos tárban lenne, és két lépcsőbben előkészítené az első ciklusra.Lehet nem jól értelmeztem ,de sztem ilyesmiről lehet szó.[ Szerkesztve ]
-
yarsley
aktív tag
válasz
paprobert #43376 üzenetére
>A 4090 azért lett nagy ugrás, mert másfél-két generációt lépett a gyártástechnológia. A Samsung 8nm erősen visszafogta a csúcs Ampere kártyákat.
Ez kétségtelen tény, de azért NVIDA jogosan félt mikor tervezték az Ada-t: előtte RDNA 2-vel iszonyat nagyot ugrott AMD, plusz Intelt már elég keményen elverték hasonló taktikával szerver proci fronton. Ha tényleg bevált volna a tervük, akkor a 4090 egy sokkal erősebb 800w-ot fogyasztó szörny lenne ahogy b. írta. -
Alogonomus
őstag
válasz
paprobert #42992 üzenetére
Én pedig a hozzászólásom utolsó mondatának néhány szavára szeretném felhívni a figyelmedet.
A Steam értékei eleve legfeljebb a Steam felmérés készítésére tevőlegesen rábólintó felhasználókra terjed ki, míg a jelentős forgalmú kereskedők a teljes lakosságot kiszolgálják az adott országokban. és a teljes lakosság által tőlük megvásárolt termékeket tartalmazza.A kedvedért különböző módon emeltem ki a lényeges összetartozó információkat, de azért összegzem is. Az SHWS eredményei a német lakosság részéről is csak azok adatait tartalmazhatja egyáltalán, akik a felugró ablakban az "igen" gombra nyomtak, míg egy kereskedő eladásaiba beleszámít minden a vásárló által a kereskedőnél megvásárolt termék. Nézzél szét a halmazelmélet témakörében, ha még mindig nem érted a különbséget.
-
válasz
paprobert #42416 üzenetére
No igen. De még ha az economy of scale-től eltekintünk, akkor is megéri nekik kisebb marginnal a piac - csak éppen Jensen minden tizedszázalékot úgy enged el, mintha a körmeit tépnék ki tüzes fogókkal. És hát a 4000-es szériánál sajnos igazuk is lett - ment a nagy morgás a userek részéről, aztán végül csak elmentek a 4080-ak 1200 dollárért, vagy esetleg kicsit kevesebbért. Majd ha sikerül úgy árazniuk, hogy a felére esik vissza a forgalom több hónapos távlatban is, akkor elgondolkodnak - de az utóbbi 15 évben talán egyszer nyúltak komolyabban mellé az árakkal (GTX 280), akkor ment is azonnal a korrekció. A többi meg csak üres duma.
-
Quadgame94
őstag
válasz
paprobert #42016 üzenetére
A "könnyű volt csak 4nm-re portolni és learatni a..."
Nem értem miért ez az olvasata annak amit írok. Sőt, sokszor kiemeltem, hogy a mérnökök szuper munkát végeztek. Könnyű? A világ legjobb mérnökeinek sem az.
Az Ampere sokkal jobb mint az RDNA2. Hisz eleve rosszabb node-on gyártották őket mint a konkurensét. De ez ingoványos talaj, mert ugye két teljesen más architektúra.
Az AMD-t azért nem érinti annyira ha az N3 nem hoz nagy és hatalmas előrelépést, mert nem monolitikus lapkákat és pláne nem 600+ mm2 lapkát terveznek. Az AMD-nek az N4X is szép előrelepés lenne. Illetve fizikai korlátai is lesznek előbb-utóbb ezeknek a node-nak.
Ez az egész pedig abból indult ki, hogy valamikor jobban meg kell elöltenie magát az NV-nek, mert ekkora javulást nem mindig fognak hozni a következő node-ok. Viszont biztos vagyok benne, hogy megfogják tudni ugrani ezt is. Ezt is én írtam.
Szóval vannak "követeléseid", miközben a zöldek jelen pillanatban majdnem minden arch. metrikában a konkurencia előtt járnak. Az AMD-nek kell igyekeznie inkább.
Igyekeznek is. Navi 31 felveszi a versenyt az ellenfelével, nevezetesen a 4080-al. RT-ben kikap, cserébe raszterben nyer, bár én inkább egálnak hoznám ki a két kártyát. Az ára miatt venném csak a 7900 XTX-et. Azonos áron 4080 a jobb választás. A 4090-el nem verseng az AMD ez tény. Az AMD-nek nagyot kéne előrelépnie RT-ben.
-
Quadgame94
őstag
válasz
paprobert #42012 üzenetére
Folyr. Köv.
Itt egy vita folyik hogy vajon mennyire az arch.-nak és mennyire az N4-nek köszönhető a teljesitmény/fogyasztás és egyéb előnyei az Ada-nak. Én ebbe semmi érzelmet vagy lefikázó dolgot nem írtam. En nagyrészt az N4-nek titulalom mások nem, ennyi. Elfogadom más álláspontját.
De van aki csak szinte az Ada-ról beszélt hogy hát az mennyire jó és a N4 érdemeit meg sem.említette. Mert a közel 3x trans/mm2 sűrűség az smafu.
-
Quadgame94
őstag
válasz
paprobert #42012 üzenetére
Ezt nem általánosságban írtam hanem az Ada v Ampere esetéről beszéltem. Nem igazán értem hogy jön ide a GCN.
Mit fikáztam le? Mist az fikazas ha a veleményem szerunt a nagyhanyada az előnyének a gyártástechnológia miatt jött? Nincs előnye a 4 nm-nek? Most az fikázás hogy a 4 nm jobb mint a Samu 8 nm? Lol ez tény. Ti veszitek ezt pejorativnak. Es mi van ha csak.ebből jött az előny?[ Szerkesztve ]
-
Callisto
őstag
válasz
paprobert #41706 üzenetére
Hogy érted, hogy rosszabnak? FSR, DLSS mind rosszabb a natívnál. (FSR a rosszabb.) Kiböki a szemet. Elég rossz látásnak kell lenni, hogy ne vegye észre valaki.
Videók amúgy nagyon messze van attól, amit élőben látsz, elárulom ha nem látnád még azt sem).
Magamnál próbálok ki minden ilyen dolgot az új verziónál, de sosem ragadtam meg náluk. Inkább natív és kevesebb framerate vagy a teljesítményzabáló effektből leveszek.
Persze ki lehet szedni egy-egy részletet itt-ott, ami "jobb" vagy több de az többnyire engine problémára vezethető vissza mivel más engineknél meg nincs ilyen.
Természetesen van létjogosultsága az FPS mániákusoknál és azoknál a kártyáknál melyek gyengébbek, de vak azért nem vagyok köszi, ellenben igényes.
A 3.5-ösre kíváncsi leszek bár attól tartok, hogy csupán a tükröződéseknél fog látszani a javulás az pedig számomra félő, hogy nem fog annyit hozzátenni, hogy elviseljem a teljes homályosságot és az általános részlethiányt a natívhoz képest. De ki tudja. Reménykeltő. -
FLATRONW
őstag
-
gejala
őstag
válasz
paprobert #41144 üzenetére
A Unity két szék között a pad alá esett, mert korai PS4 címként rosszul lőtték be a dolgokat. Konzolon nem volt akadály a draw call limit, de a gyenge proci nem bírta a terhet. PC-n volt elég erős proci, de a DX11 elhasalt a játék alatt a túl sok draw call miatt.
Fun fact: 32 CPU szálat mozgat folyamatosan a játék, nem rossz egy 2014-es megjelenéstől.[ Szerkesztve ]
-
huskydog17
addikt
válasz
paprobert #40806 üzenetére
Igen, bennem is az fogalmazódott meg, hogy ez tök jó, csak nagy kérdés, hogy mennyire lesz nehéz/egyszerű beépíteni a játékokba, mennyi plusz munkával járna. Azt bemutatták, hogy lassabb ez a metódus, így biztosan lesznek olyan fejlesztők, akik ezt nem szándékoznak használni, inkább a rosszabb minőségű textúrák, de jobb tempó mellett teszik majd le a voksukat.
Mindenesetre kíváncsi vagyok, hogy ebből a gyakorlatban mikor lesz valami, továbbá ha valamely játékokba be is építik, arról lesz-e publikus információ, vagyis kap-e ez a funkció is egyfajta marketinget, vagy inkább csendben néhány címbe beépítik. -
Raymond
titán
-
Raymond
titán
-
Petykemano
veterán
válasz
paprobert #39503 üzenetére
Én ezt a videót nem értettem.
5:00-kor azt magyarázza, hogy miben különbözhet majd szerinte az Nvidia megközelítése a AMD-étől:
- Az nvidia egy központi GPU lapkát készít majd és többféle memóriavezérlőt épít köré attól függően, hogy milyen piacra szánja az adott terméket.
- Az AMD többféle központi lapkát készít és a memóriavezérlő jellegében változatlan, csak számosságában változik.De ez komplett hülyeség.
Egészen biztosan nem fog az Nvidia a legalacsonyabbtól a legmagasabb piaci szegmensig mindössze egyetlen (monolitikus!) GCD-t használni.
És azt se mondta senki, hogy az AMD ne tudna olyan MCD-t csatlakoztatni az RDNA3 GCD-khez, amiben több cache van, amin 3D több cache van, vagy GDDR6 vezérlő helyett HBM vezérlő van, stb.Nekem úgy jött le, hogy miközben azt próbálja elmagyarázni, hogy mennyivel másabb és emiatt jobb és érettebb lesz majd az Nvidia megközelítése, valójában azt sikerül bemutatni, hogy a mennyire ugyanolyan lesz a megközelítés. (Persze attól még csinálhatják jobban és érettebben)
-
Alogonomus
őstag
válasz
paprobert #37762 üzenetére
A több memória mindenképpen többet fogyaszt. Jelenleg az RTX 3080 rendelkezik két különböző verzióval, ami ugyanolyan sebességű memóriákból, de eltérő mennyiséget tartalmaz.
RTX 3080 Suprim X 10 GB Idle: 11 W, Multi monitor 22 W.
RTX 3080 Suprim X 12 GB Idle: 18 W, Multi monitor 32 W.Persze lehet azt mondani, hogy az a 7 és 10 watt különbség azoknál a kártyáknál nem számít, de ha 2 GB extra memória ennyit okoz, akkor a 12 vs 24 GB esetén a 12 GB többlet valószínűleg már 30-40 wattal is megemelné a kártya nyugalmi fogyasztását a semmiért, ami valószínűleg ki is zárná a fan stop opció esélyét.
-
Televan74
nagyúr
válasz
paprobert #37762 üzenetére
Függ a felontástól és a grafikai szinttől. De ha valaki 4K/Ultra 120fps -t szeretne égesse csak a pénzt rá.
Ha esteleg nem lenne elég a 12GB a közeljövőben(amit én kétlek) akkor lejjebb veszem a grafikát ultráról high -ra. De még egyelőre a 8GB is elég nekem(1080p -n). -
GeryFlash
veterán
válasz
paprobert #37643 üzenetére
Ja hat azt elfogadom hogy, tartalek lehet es ,,mehetnenek az olcso kartyak is 5nm-en" akkor is gazdasagos tudna lenni. Csak miert tegye, a 7-->6nm es az ilyen olyan szoftveres optimalizalasok is sokat tudnak hozni, a tobb profit meg jobb.
R&D meg igy is lesz egy szinten, nem kell novelni ahhoz hogy meglevo K+F es half-node jelentette bonuszok hozzak azt hogy 6600XT fogyasztason 3070TI-t kapjunk.Anyagkoltsegben meg valszeg jobbra jon ki a rosszabb de olcsobb node.
Amugy arrol nem beszelve, hogy szerintem alapbol nincs annyi waffer hogy itt mindket ceg 5nm-en gyartson. Jon ugye a Zen4, az iPhoneok meg iden valszeg mind 5nm-n erkeznek szoval az Apple feloli demand is kis mertekben fog csokkenni, ehhez az a 20%os kapacitas noveles lofutty. Ja es meg a Qualcomm is jon N5-re.
Ilyen node demand es erdemi konkurencia mellett azert joesellyel a TSMC szemtelen penzeket kerhet el, lehet igaz is hogy kozel nullszaldos lenne az olcso kartyaknal.[ Szerkesztve ]
-
válasz
paprobert #37643 üzenetére
Kíváncsi vagyok mi sül ki ebből a generációból. Eléggé két esélyes lesz ez a szitu.
A magas árhoz magas kereslet is kell ami most szerintem kisebb mértékű lesz.
Ezt főleg a TDP keret emelésre értem és az árazásra, hogy meddig lehet csinálni.
Annyiban téved az Nvidia és az AMD hogy rohadt sok emberhez nem jutott el az Ampere akik már váltottak volna és még mindig Pascalon vagy Turingon vannak, mint én is és eddig nagyjából xx70 vagy xx80 kártyákat vásárolnak.
ha most ráviszik az Amperet kisebb csíkszélre, mondjuk TSMC 7 nm vagy 6 ra vagy Samu 5 re,akkor mi a fenének váltsak egy RTX 2070 ről én egy RTX 4070 re vagy 80 ra mikor egy RTx 3080 majd a használt piacot elöntők közül vagy az új genben mondjuk RTX 4060 néven ott lesz.
Nem fogok venni 4- 600 W fogyasztású szörnyetegeket mikor kisebb fogyasztással is jelentőset léphetek előre, ráadásul a 3080 10-12 GB használtan egy értelmes alternatíva lesz . Engem nem győzött meg az Unreal sem hogy jelentős előrelépés lesz sőt eddig egyetlen olyan új generációs játékot sem láttam PC-n beharangozva amitől én rohannék venni RTX 4080 vagy radeon 7900 kártyát vagy amire nem lenne elég egy 3080 vagy 70....
Szerintem erősen le fog csökkenni most a kereslet a kiadás utáni második évben és így a profit, bármit is akarnak....[ Szerkesztve ]
-
Petykemano
veterán
válasz
paprobert #37641 üzenetére
Igen, én is úgy emlékszem, hogy ez a beszélgetés 2-3 évvel ezelőtt pontosan így lezajlott.
Nemrégiben még cikkek is jelentek meg arról, hogy óóó, hát sajna úgy tűnik, hogy a chipleten alapuló CPU designok árának alja $300.
Aztán pár hónappal később magától is lecsökkent $250-re. Ma meg már hivatalosan is $200.Nyilván sok összetevős, de úgy tűnik, hogy az árat leginkább mégiscsak az adott termék kereslet-kínálat viszonyai határozzák meg. Amíg kellett a chipletek nagy része a Milanhoz és/vagy szűkös volt az AMD-nek rendelkezésre álló gyártókapacitás, addig drágán mérte a desktop ryzent, mert az eladható darabszám figyelembevételével így volt maximális a profit.
Az eladható darabszám figyelembevételével profitmaximalizálás - mindig ez a cél. És az eladható darabszámra hatással van az, hogy adott áron mennyire viszik vagy hogy van-e a
kínálatnak kemény korlátja, vagy olyan puha, hogy a termelés mennyiségének csökkenésével vagy növelésével nőnek a költségek.
(csökkentés miatt: az egy példányra eső tervezési költség, növelés miatt pedig az alapanyagköltségek)MLiD-nek volt egy videója arról, hogy miért lehet majd árban elérhető az RDNA3.
Egyrészt azt Te is említetted, hogy az N5 nem új gyártástechnológia, másrészt nagyon remek a selejtarány is. Harmadrészt pedig a chiplet tervezés miatt relatív kicsi, tehát kezelhető méretű és összességében sem nagy lapkák készülnek majd N5-ön. Most csak hasraütök: 2db 200-250mm2-es lapka N5-ön + 1db 250mm-es lapka N6-on. Feltehetnénk a kérdést, hogy nem létezik, hogy összességében ilyen pici lapkákkal dolgozzon az AMD, de valójában összköterjedésben ez így is közel másfélszer nagyobb lenne, mint a Navi21!Az AMD-nek nem csak arra kell gondolni, hogy a $10000-os N7 helyett már $17000-os N5-on kell gyártani (már ha még valóban ilyen költségtételt jelent egy wafer), hanem arra is, hogy mondjuk N5-re tervezni már $0.5-1mrd, amit leghatékonyabban úgy lehet csökkenteni, ha minél több eladott termékre lehet teríteni. Tehát itt is van egy egy optimum függvény, hogy hol adott áron mennyi termék kel el és az a mennyiség akkor mekkora részt tud lefedni a tervezési költségekből.
Sokan érveltek azzal az áremelésekre, hogy a cégek a homlokukhoz csaptak, hogy ja hát ha ennyiért is elkel, akkor adhatjuk drágábban is. Azt azonban ne felejtsük el, hogy ez az RDNA előtt az élen egy kvázi-monopol, rögtön azt követően pedig egy felfokozott bányász-időszakban volt. Könnyen lehet, hogy aki hajlandó volt kifizetni a 2x-es felárat az nem saját szórakozására tekintettel értékelte még így is megérősnek a vásárlást, hanem tervezetett bányászati tevékenységgel gondolta ledolgozni a különbözetet. Ha a bányászat kikerül a képből, akkor a felár megfizetésére való hajlandóság is elpárologhat.
Az persze valószínű, hogy a 2x gyorsabb kártyákért az AMD és az Nvidia is többet fog elkérni, mint a jelen generáció. De a mostani generációváltás során én egy a korábbiakban megszokott tier lecsúszást és ezzel árcsökkenést várok.
-
GeryFlash
veterán
válasz
paprobert #37641 üzenetére
,,Ahhoz fejleszteni is kéne. "
Az hogy paprobert kollega a prohardver forumon azt erzi hogy se az Nvidia se az AMD nem erdemli meg ezt a profit ratat mint az elmult 2 evben, es csak ne sporoljanak a gyartaskoltsegen, kulonben se fejlesztettek semmit es az felsokategoriaban ugyanott van a perf/watt mint 6 eve, es ennek az erzesenek hangot is ad attol meg – kapaszkodj meg – senkit nem erdekel. Alternativakent lehet majd venni Intelt, ahol a csucs lesz az mint itt a masik kettonel a belepo, biztos majd melyen alavag az Intel arban.
Ne erts felre, nekem se senkinek se tetszik ez a szitu, de nem lehet mit tenni, az hogy ki mit erdemel meg irrelevans. Oruljunk neki hogy legalabb kapunk vegre belepo kategoriaban 3070TI teljesitmenyt 6600XT fogyasztassal. Leszarom ha ez 6nm es nem 5nm-en fog keszulni.
-
Abu85
HÁZIGAZDA
válasz
paprobert #37511 üzenetére
Van. Magának a GPU blokknak a része az L0-L1-L2 mindegyik architektúránál. És se az AMD, se az NVIDIA dizájnjaiban nem férnek hozzá ezekhez a GPU blokkon kívüli gyorsítók, például a kódoló és dekódoló blokk, a kijelzőmotor, vagy a DMA motorok, és hasonlók. De az Infinity Cache-hez mindegyik hozzáfér. Ez szándékosan van amúgy így, mert az L2 cache-nek csak bajt okozna, ha a GPU blokkon kívüli egységek szemetelnék a tartalmát. Az Infinity Cache nem ilyen érzékeny, az ugye egy victim cache.
Tehát az egy jó döntés a gyártók részéről, hogy a GPU blokkon kívüli részegységeket nem kötik rá az L2-re sem, és az is jó döntés az AMD-től, hogy ezeket ráköti az IC-re, de az L2-re már nem.A co-issue feldolgozás nem egy ördögtől való ötlet. Sokáig az AMD is csinálta az R600-tól kezdve, ennek leszármazottjainál, egészen a GCN-ig. Általában attól függ a co-issue bevetése, hogy van-e az adott architektúrán belül lényegi haszna, és az adott dizájnon belül mennyire drága beépíteni. Az RDNA-ban a co-issue feldolgozásnak nincs túl sok értelme a jelenlegi felépítés mellett, és eközben a beépítés drága is lenne. Az NV azért csinálja, mert nekik a beépítése olcsó, és van is helyenként haszna, miközben valós hátrányt csak a fogyasztásra fejt ki. Amúgy, ha az NV-nek ez az Ampere-ben egy drágán beépíthető dolog lenne, ami aránytalanul sok tranyót elzabálna, akkor ők se foglalkoznának vele.
A co-issue dizájnoknál jelenleg a problémát az jelenti, hogy egymástól nem függő wave-eket tudjon futtatni az a két feldolgozótömb, amelyek egy ütemezőn csüngenek. A gyorsítótárnak nincs sok limitje erre a feldolgozási formára. A regiszterterületnek annál inkább. De megint visszajutunk oda, hogy ha a co-issue beépítése a tranyóköltségben kellően olcsó, akkor megéri erre elverni a tranyót, függetlenül az ilyen rendszerek tipikus hátrányaitól. Minden csak viszonylagos, és az Ampere az egy olyan dizájn, ahol éppen határon volt a co-issue többletköltsége a várható nyereséghez viszonyítva, tehát éppenséggel nem volt hülyeség erre elvinni a dizájnt.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz
paprobert #37490 üzenetére
Persze, gyorsítótárat könnyű tervezni. De bekötni, hogy hatékony is legyen, na az már kemény dió. Nem véletlen, hogy az Infinity Cache-t nem a GPU-részleg tervezte az AMD-nél, mert nem volt meg a tapasztalatuk hozzá. Ott volt viszont a CPU-részleg, ami gyakorlott ebben.
#37491 b. : Mármint a gyorsítótárnak? Az hasznos az RT egyes lépcsőihez, de kell hozzá ám a kapacitás is. Leginkább 200+ MB, de bizonyos részletesség mellett talán a 80 MB is elég.
[ Szerkesztve ]
-
válasz
paprobert #37275 üzenetére
Erre a célra az Intel kisebb VGA-i lesznek a befutók, szerintem.
Ha egyszer az életben kijönnek.
Egyébként jött már az AMD-től az általad áhított kártya, bő egy hete. Csak négyszeres áron, modern videó képességek nélkül...
Nem igazán, mert nincs belőlük Low Profile, ahhoz kapcsolódon nincs belőlük külső tápcsati nélküli. Talán az RX 6400-ból lesz LP változat (ill. külső tápcsatit nem igénylő), de az meg csak OEM. Plusz az említett okokból HTPC-be nem annyira nyerő választás a kis AMD, hiszen pont a videólejátszás lenne a lényege.
Ilyen téren az utolsó piadon is kapható vörös kiadás az RX 560 volt, HDMI 2.0, 4K@60Hz képességgel.Az IGP lenne papíron a jó döntés eme célra, de sem az AMD, sem az Intel nem adott ki olyan IGP-s procit, ami 4K@60Hz-nél többre képes (mint kiderült az Alder Lake IGP-je sem tud többet). Igen, az AMD majd egyszer, valamikor ad. AM5 + DDR5 mellé. Az értelmes ár/értékű változatok 2023-ban. Talán.
Kabarénak is erős, ami ma a PC hardware terén megy...
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz
paprobert #36384 üzenetére
Ha a JEDEC szabványosítja a GDDR6X-et, akkor az hozhat fejlődést, mert onnan már a Micron sem az egyetlen lesz. Vagy opció a HBM, vagy a sok cache. Lehetőség az van bőven.
#36385 b. : Ja, gyártásra vár, úgy hogy mintája sincs. A probléma az, hogy a Micron erőforrásai is végesek, és most mindent a DDR5-re koncentrálnak. Ez hátrányos a GDDR6X-nek. Tehát hiába jelez az NV 2 GB-ra igényt, ők akkor is fix megrendelők, ha nem csinálnak 2 GB-os GDDR6X-et, mert nem tud átmenni az NV a Samsung, Hynix, stb. gyártókhoz.
[ Szerkesztve ]
-
-
válasz
paprobert #36156 üzenetére
Nem lesz.
Ugyanis alapból 1 év kellett 2018-ban is, hogy normalizálódjanak az árak.
Plusz a nagyok akik raklapszám veszik a kártyákat, nem a gamer pisták akik 1-2 kártyával tolják, és az első nagyobb beszakadáskor pánikolnak, aztán eladnak mindent.
A nagyok akkor is járatni fogják ezeket a kártyákat, amikor esetleg több lenne az üzemeltetés mint az ár, mert megvárják a következő felfutást, és rögtön dől a lé. -
Komplikato
veterán
válasz
paprobert #35645 üzenetére
Ahogy váható volt, előre menekűl aki tud. Közben másik topikban írta valaki, hogy a TMSC megegyezett az autóipar nagyjaival, hogy az ő cucaik kapnak prioritást. Gondolom megkapják a 7-12nm nagy részét. Nvidia ugrik a 3nm-re, AMD gondlom az 5nm-re, aztán meglátjuk mi lesz ebből a kulimászból. Ahogy figyelem az újra éledő "hogyan bányásszunk?" weboldalak és youtube csatornák elszaporodását, itt gazdasági válság meg vírus nélkűl se lenne lóf*sz se.
-
Yutani
nagyúr
válasz
paprobert #29895 üzenetére
Nem csak az 5700 XT-t, hanem minden túlárazott sz@rt le kellene rugdosni a valós áraikra:
Ha az RTX 3080 új ára 300k lesz, akkor az alábbi kártyákat hülye, aki drágábban veszi meg akár újonnan, akár használtan, mint:
RTX 2080 Ti: 190k
RTX 2080 Super: 160k
RTX 2080: 150k
RTX 2070 Super: 140k
GTX 1080 Ti: 135k
RX 5700 XT: 125k
RTX 2070: 120k
RTX 2060 Super: 115k
RX 5700: 110k
RTX 2060: 100k
GTX 1080: 100k
RX 5600 XT: 95kHivatkozási alap: Nvidia közleménye, miszerint a 3080 2x gyorsabb a 2080-nál.
A kártyák egymás közti teljesítményét a TechPowerUp legutóbbi RX 5700XT TUF tesztjének 4k summary-ja alapján állapítottam meg.
[ Szerkesztve ]
-
Z10N
veterán
-
Motyi
senior tag
válasz
paprobert #29769 üzenetére
Lehet már nem így van, de IT cuccoknál nem úgy van az árazás, hogy ami USA-ban 1 USD az Európában 1 EUR (pl. konzoloknál így van)? Azaz a 699 USD-s 3080 az inkább 699 EUR? Mert úgy látom Te az USD árakkal + 27% áfa számoltál.
Szerintem inkább így néznek majd ki az AIB árak (gondolom nVidia továbbra sem szállít hazánkba):
RTX3090: 660-670eFt
RTX3080: 310-320eFt
RTX3070: 220-230eFtHa nem így kell számolni ne kövezzetek meg.
-
Chalez
őstag
válasz
paprobert #28930 üzenetére
Nahh, bennem is ez motoszkált, h elvileg konzolgeneráció váltás lesz, most az új vga-knak arányaiban nagyobbat kellene villantani teljesítményben, és aránylag visszafogott árazást kell produkálniuk, mert különben a pc-sek fennmaradó részéből rengetegen térhetnek át, és húznak be egy ps5-öt, v egy xbox sx-et inkább, mint 400-600-x $-t kiadjanak csak egy komponensre...
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz
paprobert #28826 üzenetére
De az A100 tele van egy rakás, játék szempontjából teljesen hasztalan részegységgel. A Navi 21 általánosabban van tervezve.
(#28828) Yutani: Tolómérővel mérve ~510 mm2. Máshol is azt mondták, hogy 500 mm2 fölött van picivel.
(#28829) arn: Azért távolról sem a ~350 wattos TGP-t szoktuk meg.
(#28831) sutyi^: Olyan túl sokat most nem lehet méregetni. Van TFLOPS és TGP adat, ami sokra nem elég. De abból főznek a pletykagyárak, ami van.
(#28832) arn: Az Ampere esetében azért sosem volt panasz a teljesítményre. Tehát lehet hallani, hogy nagyon zabál, és kibaszottul süt (főleg a memóriák, azok 120°C-on mennek), de a tempója az rendben van. Szóval előrelépés úgy néz ki, hogy lesz bőven, csak magas lesz az ára wattok és a celsius-fokok tekintetében. Meg gondolom azért az árcédulára is rendesen odafirkantanak majd.
[ Szerkesztve ]
-
paprobert
őstag
válasz
paprobert #28826 üzenetére
Kifutottam az időből.
Valamint az AMD megoldása 30%-kal kisebb footprintű úgy, hogy tartalmaz multimédiás egységeket is, természetesen ~50W előnnyel az A100-hoz képest.
Szkeptikus vagyok, gyakorlatilag nincs olyan paraméter, ami nem olyannak tűnik mintha az AdoredTV rakta volna össze ezt az egyenletet.
-
Chalez
őstag
válasz
paprobert #28699 üzenetére
Köszi. Szerencsére ws 1080p/144-re kell, szóval akár max a 3070 is elég lehet... kompromisszumokkal. Az biztos, h. 250k a max amit vga-ra kiadok, de még az is kicsit ingerküszöb feletti
CP2077 60FPS+ a cél, abba a játékba a várakozások szerint párszáz órát majd beleölök.
-
Jack@l
veterán
válasz
paprobert #28583 üzenetére
Horizon Zero Dawn nem éppen az optimalizáltság példaképe. Inkubb bug az hogy jobban fut kiszemelt amd-s párosításssal, mint feature.
@proci: de mi lesz ami erdemben jobban megjaratja a buszt? Mert ahol arra kell alpozni, hogy minden framenel masszivan adatot mozgasson rajta, ott mar nagy baj van. Az amd vesszosparipaja mostanaban hogy majd ezzel megvaltjak a vilagot, de a kesleltetes ugyanugy ratyi hozza, hiaba a dupla savszel. Figyeld meg hogz 1 evig a fopap ezzel fog haknizni, aytan amikor kiderul a zsakutca, abbamarad a tamtam. HBC is addig volt szuper elkepzeles ameddig ki nem jottek a tobb vramot hasznalo jatekok. Csak elotte amd is szepen csendben a tobb vram fele lepett, nehogz kideruljon hogy 4gb-al nem tul user frendly 8gb-ra keszitett jatekot futtatni.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz
paprobert #27902 üzenetére
Nem ilyen egyszerű. Az NV-nek is ugyanúgy, ahogy ma már elég sok cégnek kétféle dizájnkönyvtára van. Régen csak egy volt, de a Volta óta van egy teljesítményoptimalizált, illetve egy sűrűségoptimalizált. Korábban csak utóbbi volt, de előbbit a tensor magok miatt érdemes volt bevezetni, mert ott eleve eléggé egyszerű maga az áramkör, így többet nyersz egy teljesítményoptimalizált dizájnkönyvtárral. Már pusztán az áramkörök jellege miatt sűrűn lehet elhelyezni a tranyókat. Na most ezeket a döntéseket végigviszed az egész lapkára. Tehát amíg egy A100-at igenis van értelme teljesítményoptimalizáltra tervezni, addig egy tensor magokkal jóval kevésbé kitömött GPU-t már nem, oda a sűrűségoptimalizált dizájnkönyvtár az ideális.
Ugyanez létezik az AMD-nél is, bár ott annyi a különbség, hogy az AMD-nek vannak mixed optimalizálásai, vagyis egy lapkán belül is tudnak két eltérő könyvtárral tervezni, de nem úgy, hogy kis részleteket ezzel, míg a többit azzal csinálják, hanem itt nagy lapkaterületeket tudnak csak máshogy kidolgozni. Például a Renoir esetében az egész IGP teljesítményoptimalizált (kivéve a fixfunkciós blokkokat), míg a többi elem sűrűségoptimalizált. De amúgy teljes GPU-ra, vagy teljes CPU-ra, csak az egyiket szokták használni.Ezek a dolgok mind komolyan nehezítik ezt a gyorsan elhozom a x bérgyártótól, és leportolom seperc alatt y-ra ötletelést.
(#27903) hokuszpk: Lopni lophatnak a gyártók egymástól, csak szart sem érnek el vele. Eleve licenchez vannak kötve az egyes szellemi tulajdonok, másrészt sok ezek közül nem is hasznosítható egy eltérő lapkában.
Az Inteltől semmit hasznosat sem tudtak magukkal vinni a mérnökök a TSMC-hez. Egyszerűen csak a nyers tudásuk miatt hasznosak. Persze elmondhatták a TSMC-nek, hogy az Intel mit hogyan csinál 14 nm-en, de kb. annyi lehet erre a reakció, hogy "ezzel az infóval mit kezdjenek"? Hasznosítani nem lehet.Az Intel-TSMC viszonya egyébként azért tűnik extrémnek, mert a TSMC-nek az utóbbi években minden bejött, míg az Intelnek semmi sem. De a TSMC-nek főleg azért jön be minden, mert a fejlesztéseknél minimális kockázatot vállalnak. Látható, hogy a GAAFET-re is a Samsung megy elsőként, míg a TSMC a 3 nm-re inkább marad FinFET-en. Ez egyszerűen kockázatminimalizálás. Ilyen formában sokkal nehezebb lyukra futni, míg a Samsung simán taknyolhat egyet, mert kockázatos lépést csinálnak. De ha mondjuk betalálnak, akkor meg a Samsungot fogja dicsőíteni mindenki, hogy végre odapakoltak.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz
paprobert #27890 üzenetére
Az A100 egy másik dizájn. Itt dizájnokat portolsz. Az architektúra nem ér semmit, mert az még önmagában nem fizikai dizájn.
Senki sem hoz ki hamarabb semmit ezekből a node-okból. Amiért nem látod a fejlődést máshol, az amiatt van, hogy sokan eleve egyszerűbb áramköröket terveznek, vagy a mobil SoC esetében egyszerűen Artisan IP-t licenecnek, tehát eleve úgy kérik a magot, hogy fizikailag kész a dizájn az adott node-ra, és nem ők tervezik le. Ezekben is van elméletben tartalék, csak senki sem érdekelt abban, hogy kihozzák azokat.
Ugyanez megfigyelhető az Intelnél is a 14 nm+++++++++++++++++++++++++-szal. Évről-évre találnak tartalékot, mert évről-évre egyre inkább megismerik.A TSMC-nél licit van a kapacitásra. Az nyer, aki a legtöbbet fizeti. Lehet tenni alacsony összegű ajánlatokat, de ki nem szarja le, ha a többiek meg rálicitálnak.
(#27892) Petykemano: A tömeggyártás a kulcsa annak, hogy megértsd egy node viselkedését, mert csak akkor szembesülsz a variancia problémájának nagyságával.
Az a tudás, hogy hogyan lehet egy node-on jól gyártani bele van kódolva a dizájnkönyvtárakba. Tehát elmehetnek a mérnökök ide-oda, de a dizájnkönyvtárat nem tudják magukkal vinni. Főleg amiatt, mert mindenki más szoftveres hátteret használ, tehát a tudásuk hasztalan, mert csak arra az egy dizájnkönyvtárra vonatkozik, amely csak az adott cég terveivel működik. Ezt sajnos mindenkinek magának kell kitapasztalnia, ha vásárolható lenne, akkor ezzel kereskednének a cégek, mert bizony igen komoly áron el lehetne adni ezt a tudást.
A TSMC fel tudja kínálni azt a tapasztalatot az NV-nek, de ahhoz, hogy kezdjenek is vele valamit az NV licencelni kell az AMD IP-it, és az AMD dizájnkönyvtárait. Ezek nélkül az AMD specifikus tapasztalata semmit sem ér, azok ugyanis nem az NV dizájn- és szoftverkörnyezetére, illetve IP-ire vannak szabva.[ Szerkesztve ]
-
Petykemano
veterán
válasz
paprobert #27890 üzenetére
Az, hogy az AMD-nek 3-4 iteráció kellett ,de jobb szakemberekkel...
Abban nem vagyok biztos, hogy az nvidia nem foglalkozott-e már a kezdetektől, mondjuk pont ugyanakkortól a 7nm-rel, mint az AMD. Ugyanúgy tanulhatták az elmúlt 2-3 évben, függetlenül attól, hogy hogy az AMD-hez hasonlóan nem csináltak belőle tömeggyártott terméket. Nem?
Végülis valami alapján már évekkel ezelőtt el kellett dönteni, hogy hol gyártanak.máskülönben meg azt se tartom valószínűnek, hogy azt a tudást, hogy hogy kell egy adott node-on gyártani az AMD vagy bárki más meg tudná tartani kizárólag magának. a TSMC (vagy a samsung) is érdekelt ennek a tudásnak a megszerzésében a librarykba való beépítésében és más bértártyókkal való versengés során más megrendelőknek kínálni.
Magyarul lehet, hogy az AMD szerencsétlenkedett 2 évet a 7nm-rel, de az ott szerzett tapasztalatot a TSMC-nek is érdeke megszerezni és felkínálni például nvidiának, emiatt nem biztos, hogy az nvidia "ma" onnan indul, ahol az AMD 2 éve.
-
poci76
aktív tag
-
válasz
paprobert #27740 üzenetére
Nvidia az utóbi 3 genben a gyártástechnológiát is módosította a kártyáik architektúráihoz. Mindenhol külön módosított gyártósort kaptak, de a Turing volt a legegyedibb,ahol külön csíkszélt is kaptak hozzá, csak ők gyártottak rajt.
A kisebb Pascal a Samsungnál egy továbbfejlesztett csíkszélen készült egyedi paraméterekkel a GTX kártyákhoz.
Biztos vagyok benne, hogy ez most is így lesz, sok szempontból hozni fogják vagy meg is haladják a 7 nm általános dizájn elemeit. A pletykált 320-350 wattos TDP ami valójában TGP egy pletykára alapul szintén,de ugyan ez a pletyka írja azt hogy ismét 700mm2 fölött lesz a csúcs GPu ami azt jelenti, hogy a 12nm-n készített Turinghoz nézve kb 1000 mm2 lenne ugyan azon a gyártáson az Ampere.
Van sok tényező amit nem tudunk, szerintem lesznek meglepetések az Ampereben amiről majd csak a megjelenés napján foguk tudni.
Én arra tippelek hogy a kisebb kártyák lesznek Samsungnál a nagyobbak TSMC nél.
Erre utalhatott az a pletyka hónapokkal ezelőtt, hogy a felső kategória nem lesz olcsóbb, de az alsóbbak valószínűleg igen.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz
paprobert #27340 üzenetére
Ez egy specifikus eset. Egyik konzol sem az az RDNA2, amit jön PC-be. Az egyes részegységek azok, de a buszrendszer, ami összeköti a CU-kat még az első RDNA-ból származik. Ennek az előnye, hogy eleve kész volt, tehát csak használni kellett, illetve bőven kibír annyi multiprocesszort, amennyi a konzolokba került. A hátránya, hogy nem visel el ~2,23 GHz körülinél nagyobb órajelet. Az új buszrendszer, ami az RDNA2-ben jön már bőven elvisel. Emiatt ez a korlát a PS5-nél.
-
Abu85
HÁZIGAZDA
válasz
paprobert #27335 üzenetére
Van egy maximális fogyasztási limit, de a PlayStation 5 speciel hamarabb ütközik bele a belső buszrendszer clock limitjébe. Azért is 2,23 GHz a beállított órajel, mert a Sony konzolja még az első generációs RDNA kicsit módosított buszrendszerét használja, és nem az újhoz tervezettet. Ennyi részegységre ez is elég, de nem tud ennél magasabb órajelen működni. Maguk a multiprocesszorok képesek lennének többre is, az RDNA2 mintákon a clock limit 2,7 GHz. Ez a Navi 10-nél 2,1 GHz volt.
(#27336) lenox: Valahogy ki kell verni a bullshitet az emberek fejéből.
Maga az AMD AVFS rendszere nem definiál alapórajelet. Nincs szüksége rá. A régebbi AVFS esetében egy PowerTune órajel volt definiálva, és onnan számolt mindent. Az RDNA-nál csak egy DPM limit van a BIOS-ban az órajelre, és abból van számolva minden. Plusz meg van adva egy úgynevezett clock limit, ami például a Navi 10-es GPU-knál 2,1 GHz. Ez a felső limitje annak, amire maga a hardver elméletben képes, de különböző okok miatt sosem tudja beállítani. Ez arra szolgál, hogy a rendszer túl tudja lépni magát a DPM limitet is, vagyis hiába van maximum órajelnek 1755 MHz ráírva a Radeon RX 5700 XT-re, egyszerűen lehetnek olyan alkalmazások, ahol beállít 1800 MHz-et, amíg a clock limitet nem lépi át. A különbség az, hogy amíg a DPM limiten belül marad az órajel, addig a hardver szabadon dönthet arról, hogy mi a következő 1 ezredmásodperces DPM ciklus órajele, míg a DPM limitet túllépve muszáj a DPM limit maximumát beállítani a következő 1 ezredmásodpercre, ahonnan a hardver megint szabadon dönthet.
Régen volt olyan, hogy voltak definiált állapotok. Úgynevezett DPM lépcsők, és azok között ugrált a hardver. Ezek a szintek konkrétan bele voltak írva a BIOS-ba.
Például ezek a Vega 10 DPM lépcsői:
A Vega 20-tól került bevezetésre a legforróbb pont meghatározásra, és azzal, hogy az AMD ezt már konkrétan ki tudja olvasni, át is álltak a finomszemcsés DPM mechanizmusra.
Ez a Navi 10 görbéje erre vonatkozóan:
Itt vált ez az egész bonyolulttá, mert a finomszemcsés DPM mechanizmussal nincsenek előre meghatározott állapotok, mindent a hardver számol ki valós időben. Ez tette lehetővé azt is, hogy ne csak a hőmérsékletre legyen ilyen számítás, hanem terhelésre is. A különbség annyi, hogy amíg a PC-s dizájnokban az AMD hőtérképet számol, addig a PlayStation 5-ben terheléstérképet.[ Szerkesztve ]
-
-
válasz
paprobert #27306 üzenetére
Nem erre gondolok, konkrétan az NVIDIA panaszkodott. Valószínűnek tartom, hogy az árazásba beleálmodták, hogy az emberek zabálni fogják az RTX-et, közben meg a többség ár / teljesítmény alapon értékelte a kártyákat, és kevesellte a 15-20%-os előrelépést.
Elég beszédes amúgy, hogy míg az RTX 2080 MSRP-je 699 USD volt, a GTX 1080-é pedig 599 USD, cca. 2 hónappal az indulás után Németországban mind a custom 2080-ak, mind a custom 1080-ak hasonló áron voltak elérhetők (650-700 EUR között, ha jól emlékszem).
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.