-
IT café
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Raymond
titán
En ertem miert irtad, ezert valaszoltam amit valaszoltam. Az egyik ertelmesebb forumozo kolleganak tartalak igy feltetelezem az idezett adatokbol vilagos hogy mi az amit irok. Vagy komolyan azt gondolod hogy az aranyok kiszamolasa es beirasa utan leirok egy mondatot amivel azt akar mondani hogy "senki nem veszi a 4080-at"?
-
Raymond
titán
Nem igazan:
4080 8.48
4090 8.21Na persze a 4080 es a 4070Ti aranylag silany teljesitmenye se igazan meglepo.
A 4080-nal meglatszik az hogy aki mar ott van hogy 1200EUR-t kiad egy kartyaert az mar meglepi a difit az 1700EUR-ra foleg hogy a dragabb kartya jelentosen gyorsabb. A 4090 egyebkent az elejetol fogva jobban ment mint a 4080 meg boven az AI laz elott.
Talan ket hozzaszolason keresztul lehetne kovetni az osszefuggeseket, nem?
-
D55
senior tag
"Már az ~1350 EUR is kurta sok volt nekem, de 12GB-os kártyáért meg sokkalom a ~900-1000 EUR-t..."
Na igen, ezért nem ugrándozok most épp én sem a jelenlegi felhozatalért, holott a 3060 Ti-m amint kijön a gépemből, már csengetik is ki amit kérek érte... Ráadásul az is súlyos érv lenne, hogy kis cégnél dolgozom, nálunk az ünnepi időszak az fix szabadság végig, ilyenkor szokott adódni legalább 2-3 nyugis nap, hogy akár komolyabban is belemerüljek valami ezt igénylő játékba, ne csak késő este hullafáradtan vagy a hétvégi itthoni teendőhegyeket elhalogatva szakítsak ilyenre időt. Mégis egyszerűen a sima 4070 nem tűnik túl hosszútávú befektetésnek, a Ti esetén ordító a 12GB VRAM, a 4080 ára meg viszont már átlépi azt a lélektani határt, amit ha hajlandó vagyok kifizetni, akkor azzal beállok én is ennek a tömegpusztító inflációnak a validálásába... Mert hogy ennyiért pár éve még komplett felsőközépkategóriás configokat lehetett összerakni és még most is simán egy működő, műszaki vizsgával rendelkező autót kapok ennyiből, szóval álljon már meg az álljon...
-
Raymond
titán
A 4070 es a 4090 volt az ertelmes kartya az osszes kozul. A 4080-nal meglatszik az hogy aki mar ott van hogy 1200EUR-t kiad egy kartyaert az mar meglepi a difit az 1700EUR-ra foleg hogy a dragabb kartya jelentosen gyorsabb. A 4090 egyebkent az elejetol fogva jobban ment mint a 4080 meg boven az AI laz elott.
-
Raymond
titán
Az oktoberi SHWS-ben a 40-es kartyak igy viszonyulnak egymashoz:
4070 28.34
4060 23.70
4060Ti 19.07
4070Ti 12.19
4080 8.48
4090 8.21Az hogy a 4070 az elso az nem meglepo (az MF listat vezette minden heten a megjelenesetol egesz a 7800XT normalis elerhetosegeig), de az hogy a juniustol elerheto 4060 es foleg a 4060Ti is ilyen jol szerepel az mar inkabb. Ott azert nem volt az igazi az arazas es hetekig (inkabb honapokig) sokkal jobb vetel volt az akcios aron kiszor 3060 12GB es 3060Ti. Na persze a 4080 es a 4070Ti aranylag silany teljesitmenye se igazan meglepo
-
Quadgame94
őstag
a kisebbekből is hozott Super-t, csak később), ami elég lehet az RDNA4 ellen.
MIlyen szempontból? Az AMD simán kiadhat majd egy RX 7900 XT szintű kártyát 500 dollárért. A 4070 Super kb. 600 vagy 650 dollár lesz és lassabb mint egy 7900 XT, hiszen a Ti-től is elmarad majd. Árat meg hmm... nem szoktak csökkenteni.
RX 7900 XT egy 300 mm2 GCD lapka. Ez 4 nm-en és GDDR7-el simán megoldható. Monolitikusan is.
-
Novemberben jön az első vele szerelt Mobil állítólag, karácsonyi szezonra. Nem sok különbség van köztük amúgy.
Ha belekerül az Nvidia a késöbbi fejlesztésekbe akkor akár eldöntheti a mérleg nyelvét,de azt gondolom ez a verseny oda vissza megmarad ,ami amúgy jó.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Ja hát igen... látták a kristálygömbben, és így biztos igaz...
Igen, de nem azért, mert anyagilag megéri, hanem azért, mert a Cellt nem vitték tovább, az NV-vel pedig nem voltak megelégedve, ami persze a saját hülyeségük is volt, mert nyilván az NV csak egy tartalék termékkel dobta be magát a PS3-ba.
Viszont a PS4/XO váltásnál mindkét vállalat maradt az AMD-nél. Az oka szimplán annyi, hogy sok tízmillió sornyi kód van rájuk építve, így ha lerakják a megrendelt terméket, akkor az elég jó ahhoz, hogy ne fizessék meg a kód átírását. Egyszerűen utóbbi sokkal-sokkal drágább a gyártó oldalán. Ettől lehet váltani, csak a Sony és a Microsoft számára az orbitális költség lesz, amit vissza kell majd termelni a konzol életciklusa alatt. Üzletileg sokkal előnyösebb az olcsó irányt választani. A konzol ettől ugyanúgy eladható, és hamarabb fog hasznot termelni.
Az AWS-ben az Amazon saját terméke van. De hányan veszik az ARM szervereket kívülről? Ott már közel sem túl kellemes a helyzet, már a Marvell is ráállt a semi-customre, mert egyszerűen nem tudnak annyi ARM processzort eladni ide, hogy megérje ilyeneket fejleszteni. Ez van... túl sok még a legacy kód. Majd 5-6 év múlva talán.
[ Szerkesztve ]
-
Raymond
titán
"Nekem gyanús, hogy kifejezetten az AI gyorsítókról beszélnek."
Termeszetesen arrol. A problema meg honapokkal ezelott keletkezett (vagy tavaly ev vegen?) amikor a mainstream sajto is felkapta az AI-t es akkor valaki(k) ezekre elkezdtek a "GPU"-t mind jelzot hasznalni es ez azota is igy van. Aztan most eloszor meg kell nezni egy cikknel hogy kitol/honnan van es milyen temahoz van kozelebb (finance vagy tech) es abbol kiindulva van meg az hogy mirol is beszelnek. A szalagcimek ezeknel a hireknel es cikkeknel csak a zavart keltik. -
Abu85
HÁZIGAZDA
Az NV nem fog készíteni egyedi lapkákat a megrendelőknek. Nekik ez nem üzlet, nincs erre üzletáguk, nincsenek rá berendezkedve.
Igazából a Microsoftnak és a Sony-nak sem akkora üzlet a váltás. Kidobni sok tízmillió sornyi kódot a kukába? Sokkal drágább a szoftvert újraírni, mint a meglévő kódnak megfelelő hardvert választani. Ezért nem nagyon terjed az ARM a mainstream szerverekben. Érti mindenki, hogy olcsó és jó, de senki sem akarja a szoftveres költségeket megfizetni, ami a váltással jár.
-
TESCO-Zsömle
félisten
Anno Abu azt írta, hogy a konzolgyártók azért az AMD mellett tették le a voksukat, mert egyedül ők terveznek teljesen egyedi igényekre, míg nVidiától vagy valamelyik csomagjukat veszed, vagy licenszeled a cuccot és nekiállsz magad megtervezni a saját chip-edet.
Nem tudom ez mennyire volt igaz, vagy most mennyire igaz, de anno ez volt az indok. Nyilván Intel akkor szóba se kerülhetett, mert nem volt semmijük, most azért ha kitartanak, egy évtizeden belül lehet nekik is versenyképes SOC a kezükben. -
Alogonomus
őstag
Amennyiben a Switch 2 valóban a PS5/XboxX teljesítményszintjét hozza, akkor vagy fizikai dimenzióiban is közel akkora lesz, amivel pont a "zsebrevághatóságát" bukja, vagy köröket ver még az Apple termékeire is energiahatékonyságban, hogy 10 wattból biztosítja egy 200 wattos "nagy" konzol számítási teljesítményét.
A Nintendo Switch szinte garantálhatóan marad Nvidia alapokon, de továbbra sem lesz valós ellenfél egy 200 wattos konzol teljesítményével összemérve. Megmarad egy utazás közben is használható kézikonzolnak, ami az erősebb hardver hatására a jelenlegi 1280x720-ról mondjuk feljavul 1920*1080-ra. A linkelt cikk is arról ír, hogy a szabadalom 540p-s natív felbontással példálozik, amit 1080p-re skálázna fel a technológia. Ja meg a 4k felbontásról is beszél, mint elméleti lehetőség.
Sokszor bebizonyosodott, hogy a konzol-TFlops és a desktop-TFlops nem feleltethető meg egymással 1:1 arányban.
A következő konzolgenerációs XBOX az MS-dia alapján 2028-ra van becélozva, amit megelőzően a Sony sem fog kiadni erősebb konzolt - legfeljebb még olcsóbban gyárthatót - , hiszen bőven az élen van a jelenlegi PS5-tel is.
Hogy 2030 környékén mi lesz a helyzet az akkoriban aktuális kb 1 nm-es chipek és 3 generációval újabb CPU/GPU felhozatal mellett, azt most még megjósolni is lehetetlen, de addig egyébként bármi váratlan is megtörténhet, ami fenekestül felforgathatja az addigi terveket. Elég csak az elmúlt 5 évet végiggondolni, hogy mekkorát változtak az erőviszonyok a hardver fronton. Nem mindenhol fordult meg az erőviszony, de mindenhol erősen átrendeződött.
Még az is lehet, hogy 2030-ig végre megvalósul kedvező minőségben a cloud-gaming, és nem is lesz már szükség dedikált konzolra, a távoli szervertermekben pedig vegyesen lesznek AMD/NVIDIA/INTEL/APPLE/QUALCOMM és még kitudja milyen gyártók ARM és X86 alapú hardverei, az adott játék pedig azon fog futni, amelyik jobban passzol az igényeihez.Az viszont szinte biztos, hogy amíg a jelenlegi konzolgeneráció nem kerül leváltásra előreláthatóan valamikor 2030 környékén, addig az AMD jövője a konzolpiacon betonkemény marad.
-
gejala
őstag
Ha valaki a legjobb képminőséget, a legjobb technológiákat vagy a legjobb sebességet akarja, akkor már évek óta csak az NV jöhet szóba. Egyedül az ár miatt nem vesz valaki GeForce-t. Ha ugyanannyiba kerülne ugyanaz a raszter sebesség minden gyártónál, kutya nem venne se AMD-t, se Intelt.
-
Nem csak konzol limitació a 16 GB vram általánosan nézve.Szerintem 16 GB nem limitáció még jó darabig mert a 20 GB vagy fölötti kártyák nem a meghatározóak piacon.Ráadásul Adaban van azért cache.
Nekem CP2077 4K textúra pakk(Ha a Nexus félére gondolsz) 1440P@12 GB Vram mellett van fent.Igaz nem méregetem,de nincs gondom.
[ Szerkesztve ]
-
Az Intel csak látszólag van jelen ezen a piacon, és az AMD is úgy fest, úgy van vele, hogy "na jó, ha nagyon akartok, tőlünk is vehettek GPU-t", de ebbe csak a szükséges minimum effortot rakja bele.
Szerintem ezek az in-generation upgrade-ek már sokkal inkább szolgálják az árbevétel növelését, mint a piaci pozíció javítását... -
Chiller
őstag
Tehát már el is jött az a korszak, amikor általánosan a natív szarabb, mint az elmosott szar.
Most az mindegy, hogy azért, mert a fejlesztők/kiadók igénytelenek, vagy a berakott "fícsör" (pl: TAA, shader model, texture filtering, stb) egy határ fos, de mégis csak ez a tiszta igazság.Vártam hogy eljön ez a korszak, de azt nem, hogy ilyen hamar
[ Szerkesztve ]
-
Callisto
őstag
Én ezt tudom pontosan tudom és az algoritmikus okait is, hogy miért fedi el a felskálázás (egyébként nagoyn egyszerű oka van).
Nem arról beszélek, hogy 1-1 esetben nem létezik, hanem arról hogy általánosságban a játékidő 100%-ban van más hátránya a felskálázásnak ami zavaróbb sokak számára, mint a néhai shimmering ami egyébként sokszor az engine általi AA nem túl jó megvalósítására vezethető vissza. Az egy dolog, hogy a felskálázás elfedi/csökkenti...
Sajnos az általános képminőség rosszabb, nem véletlenül vagyunk sokan akik inkább mellőzik z upscalinget, ha tehetik.[ Szerkesztve ]
-
DudeHUN
senior tag
Te játszol a játékkal? Én igen. És pl. 70%-os scale esetén ezeket játék közben észre sem veszed. Jó, hogy nem már 720p-ről skalázunk fel 4K-ra.
És mégegyszer: jobb a DLSS. De az FSR is teljesen rendben van játék közben. Nem sub 1080p-ről 4K-ra skalázva belezoomolva játszik az ember 65"-on itthon.
Nem véletlenül nincs sírás XSX fronton ezek túlnyomó részére. -
-
hokuszpk
nagyúr
szólj, ha olyan monitoron játszol ; bár a technikai kutyukrol altalaban el lehet mondani, hogy relative eleg hamar mindenkinek elerheto tavolsagba kerulnek.
ha lesz stabil 120 fps, akkor azert egy 4K -s alapkep sima felskalazasa is jobb noseget fog adni, mint most az fhd -> 4K buveszkedes. -
omfgk
veterán
A DLSS 4.0 nem együtt jön az RTX50-esekkel. Gondolom csúsztatva. De az RTX 60-ra már tutira itt lesz. Erre vonatkozott a very sure.
De írja is a 11-es végén.
DLSS 3.X lesz az RTX 40 vége, RTX 50-el jön a hiper szuper verziójú ray tracing és az RTX 60-asnak lesz a fő attrakciója a DLSS 4.0.De itt már nagyon előre szaladt. És így is kell kezelni. Mert ez akkor már 2027 (ha az RTX 50 az 2025). A lényeg ,hogy jön az új ray tracing.
[ Szerkesztve ]
-
pandras83
őstag
Nálam full kielégítő az élmény 1080p-ben. A 100 fps mondjuk inkább 70-nek érződik, de a path tracing-ért szvsz megéri. 1 óra pt gameplay után a "sima" rtx ultra szemfényvesztésnek tűnik. Abszurd, hogy maga a dlss3 is az, mégis működőképes. Nagyobb tűzharcokban is stabil 5+ npcvel, robbanásokkal, sok mozgással. Ha van is artifact, engem nem izgat.
-
-
PuMbA
titán
Ahogy előbb írtad, az NVIDIA patika mérleggel méri ki a dolgokat és szerintem most jött el az idő, hogy a tervezett elavulás nem fogja kímélni az RTX 3000-res szériát
Hiába van RT meg DLSS, ha FullHD-ban 10GB VRAM használ a Ratchet is RT nélkül. Például a 3080 10GB-ot fillérekért alig fogják venni. A 3070-ek árai most is nagyon lent vannak, a hasonló kategóriájú AMD-k drágábbak! Amiben mindig van / lesz igazság szerintem, hogy az AMD mindig jobban öregedő kártyákat csinál. Az NVIDIA a nagyobb profit reményében meg vezeti a vásárlókat a következő generációra.
[ Szerkesztve ]
-
PuMbA
titán
Előző generációs NVIDIA most pont nem éri meg használtan a kevés memória miatt. Például az RX6700XT Ratchet & Clank alatt gyorsabb a 3070 Ti-nél. Az RX6700XT 100k-ért és az RX6800 140-150k-ért, RX6800XT 170-180k-ért magasan a legjobb vételek az egész használt piacon, fogyasztás és teljesítményben is.
[ Szerkesztve ]
-
Igen, van, akit nem érdekel az ár, nem ő fogja megoldani. Őket nem fogom sajnálni a drágább kártyák miatt.
Aki "kényszerből" vásárol, ott rögtön felmerül a lehetőség, hogy nem vásárlással oldja meg a kényszert, hanem lejjebb ad az igényekből - legalább átmenetileg. Ha erre nem képes, és inkább fogcsikorgatva kipengeti a sok lét, akkor megint csak az NVIDIA-nak van igaza - ha megveszik ennyiért, akkor ennyiért kell adni.
Használt 3080 Ti-t egész biztos nem vennék, de nyilván működik az analógia a 3070-re és 3060-ra is - de csak akkor, ha értelmes áron vannak. Ebben nem állunk jól annyira.Intel és AMD kapcsán nem az a gond, hogy jelenleg nem alternatívák, hanem az, hogy egyetlen nyomorult jelet nem látni sehol, amitől lehetne hinni abban, hogy 1-2-3 év múlva azok lennének. A Battlemage elég flexibilis ütemtervvel rendelkezik, hogy finoman fogalmazzak, az AMD meg... szóval, hol a fenében vannak a 7800-7700-7600 kártyák? Érdekli az AMD-t egyáltalán még ez a piac?
-
jah kitöröltem amit utána írtam mert még nem akarok végletes következtetést leírni amíg nem jelenik meg teszt a végső játékról PC-n.
Diablo lehet nem volt kiemelkedő, de legalább jó minőségben jött ki.
A DF videó szerint a Rn2 szép de semmi kivételes vagy áll leejtős. Redditen írt posztok alapján egy 3070 Ti-n 1440P-n közepes DLSS mellett beszakad 30 FPS-re, és nem a Vram miatt. Remélem a ma kijövő tesztek már mást mutatnak.
szerk:
Úgy nézem igen: [link]
[ Szerkesztve ]
-
hahakocka
őstag
7900xt 20gb vrammal 300e sokszor található ennyiért Sapphire Pulse, Asrock is, RT ben a 4070TI 10% al jobb átlag kb. 1-2 játék van ahol nagyobb az előny. Ezért viszont csak 12gb ram és drágább ár jár és ne feledjük az RT 1.5-2gb vramot az új gameknél megesz. FSR meg van ahol jól néz ki van ahol nem annyira game függő ahogy hallottam. Nyár végére mondják az FSR3 at hát meglátjuk.
7600 114-130e Pule, 4060 133e-154e közt, 4060ti 166-185e közt
Ezeknél mennyivel jobb vétel egy 135-145e közt 12 gb rammal. Jobb is náluk és ott a plusz vram. 4060ti egy picivel jobb de mennyivel drágább kevesebb rammal. 6800 ast lehet venni 16gb rammal +15-20% erővel 200e ft ért,[ Szerkesztve ]
-
Ezt ezért tudták megcsinálni.: [link]
Zseniálisan megoldották együtt.
A 7900XTX amúgy 4070 szintjén lenne, ha nem lenne eltolva a szint.
Vissza köszönne a Turing korszak amikor az 5700XT volt a porondon a 2070 ellen.
Nem jó ez se az Nvidiának se az AMD nek mert hogy nézne ki ha a 7900XTX = 4070 esetleg 4070 Ti lenne max 600 dolláros áron.
Nvidia ezzel a szint eltolással kompetensé tette az RDNA3-at és ( mindkét cég) több pénzt keres. Sima kartell.Ezért kellene nagyon Intel a képbe.
[ Szerkesztve ]
-
+100$ áron? Szerintem ez nem kivédés
Átlagban az első értelmes 4060 Ti-k 530 Eurotól lesznek elérhetőek kb ,akkor meg már jobb a 4070 12 GB, vagy egy 3080 12 GB.
ennek a kártyának a maximális ára olyan 400Euro kellene , hogy legyen. Már mint a 16 GB verziónak.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Részben igen. Na jó, relatíve nagy részben.
De a teljesítmény/watt az biztos javulni fog, mert a Navi 33 az még 6 nm-en van, tehát nem az új 5 nm-t használja. És annak a teljesítménye nagyjából 6800 XT-6900 XT közötti, miközben a fogyasztása 6700 XT alatti, a kialakítása pedig fizikailag a 6600 XT-re hasonlít, tehát 128 bites busz, relatíve kicsi NYÁK, stb.
A többiről még nem nagyon van pontos adat, mert a többi next-gen mindkét oldalon 5 nm-es. Nyilván a 6 nm egy koncepció is, mert az 5 nm iszonyat drága, még a legkisebb VGA-k esetében is művészet lesz vele 600 dollár alá vinni az árat. Emiatt maradnak a régi VGA-k meg, mert igazából a 300-500 dolláros szintre nem nagyon lehet 5 nm-es dizájnt fejleszteni. Nem tudod összerakni haszonnal.
#37623 GeryFlash : Marad egy csomó in-house motor. Az Unreal Engine 5 sokaknak nem felel meg. A Square Enixnek is ott van a Luminous Engine házon belül, de nem minden stúdiójuk használja. Az meg, hogy a kisebb fejlesztők váltanak igazából logikus. A CD Projekt RED motorja egyáltalán nem erős.
[ Szerkesztve ]
-
GeryFlash
veterán
Jo, de a CP2077 szerintem egy eroforras zabalo szar (mondjuk egy Horizon Forbidden Westhez kepest) es nagyon rosszul skalazodott. Nem csoda hogy dobtak is es vegul UE5-tel keszul a Witcher 4.
Egyebkent Abu, errol mi a velemenyed? Abba az iranyba fogunk menni hogy mindenki ugyanazt a motort (mondjuk UE5) fogja hasznalni? Eddig soha nem volt tiszta, hogy a kozepes jatekfejleszto studioknak melyik a rentabilisabb, es sokan inkabb licenceles helyett in-houset hasznaltak (pl Metro jatekok 4A Engine, Remedy jatekok - Northlight stb).
En szemely szerint kicsit sajnalom, hogy minden jatek ,,ugyanugy fog" kinezni, ami igy nyilvan nem igaz, de azert az egyedi featureok es az innovacio szerintem hatterbe tud szorulni.
Kerdes hogy a nagyok (EA, Ubisoft, Sony) a kesobbiekben, mondjuk 5-10 eves tavlatban hogyan dont? Tenyleg le fog szukulni 1-2 enginere a piac, mert annyival koltseghatekonyabb lesz UE5-tel fejleszteni? Vagy a nagyoknak meg fogja erni lemasolni az UE5 koltseg hatekony featurejeit, es ok megmaradnak in-hosuenal, mindenki mas meg UE5 (esetleg Unity)?[ Szerkesztve ]
-
GeryFlash
veterán
Azt ertem, de ha a legkisebb tag lesz 200-225watt (Nvidinal meg 250 wattol) akkor az nagyjabol a 3070TI-3080 szintjet kene hogy hozza. Ez a PC playerek nagyon nagy reszenek (80%) boven eleg lesz. En azert ezt a kijelentese Abu-nak elegge nem tudom hova tenni. Altalaban nem erdeke ennyire a legkisebb tag fele terelni a nepet a VGA gyartoknak.
,,Ebben a régióban a hatékonyság nem tényező. Az tényező, hogy Cinebench-ben meg 3DMark-ban mennyit tolsz"
De nem lesz olyan jatek, amihez ez kell. Mert a konzolok mar most visszafognak, mar most megy a szopas hogy 4k/30FPS legyen vagy 1080/1440p 60FPS. Most jonnek ketszer erosebb hardverek, de hova. Vagy innentol 1440p 30FPS lesz majd konzolon a quality mode?
[ Szerkesztve ]
-
GeryFlash
veterán
Nem az 5700XT-re gondoltal (225W-tal)? Marmint RDNA eleje az volt.
Egyebkent igen, hihetetlen szanalmas az egesz szituacio. Tudom hogy a mostani harvderekkel nem tudnal pontosan akkora teljesitmenyt ekkora wattal, de ezek a high-high end kartyak perf/wattja rohejes, de igazabol a tobbi is. Erdekes hogy amig a vilag minden szegmense a zold es fenntarthatosag iranyaba halad addig a VGA-knal duplazzuk a kategorian beluli fogyasztast... De hogy minek azt nem ertem, mert mar most kb bottleneck a jelenlegi konzolgeneracio, tehat hova kell ketszer nagyobb teljesitmeny? Mikozben a ket gyarto izommal tolja az DLSS-t es az FSR-t, azokkal meg mar a mostani hardverekkel sem lehetetlen a 4K/144FPS.
-
Abu85
HÁZIGAZDA
Mert a Microsoft ARM-os Windows igazából qualcommos Windows. Effektíve nem ARM-ra van támogatás, hanem a Qualcommra. Más gyártói firmware-t az alaptelepítő önmagából nem is kezel. Ezért sincs kiadva dobozos verzió, hogy telepítsd magad. A Raspberry-re is úgy van megoldva, hogy egy külön alkalmazás kell az image kreálására, és ez az alkalmazás csinálja meg azt, hogy a Microsoft Qualcommra szabott támogatását kicseréli.
Az alaprobléma az, hogy az ARM-nak nincs egy BIOS-hoz hasonló rendszere a desktopon, ami egységesíteni az rendszerek alapszintű kezelését. Szerveren van az SBSA, de ezt a végfelhasználói lapkák nem támogatják. Egyébként maga az SBSA az működőképes lehetne, azt képes lenne a Microsoft egységesen támogatni, és akkor ez nem csak Qualcomm only story lenne, de egyelőre az ARM semmit nem tesz azért, hogy ebből legyen bármi is. Meg igazából a gyártók se nagyon verik az asztalt, hogy jó lenne szabványosítani, mert annyira le akarnák tarolni a Windows piacát. A legtöbben úgy vannak vele, hogy who the fuck cares, ott az Android.[ Szerkesztve ]
-
Alogonomus
őstag
Eleve ott hibás a fejtegetésed, hogy az olcsó 8 nm-es Samsung node helyett a drága 7 nm-es TSMC node áraival számolsz.
Javaslom nézd meg a Raymond kolléga által linkelt tanulmányt, és máris láthatod, hogy a TSMC 16/12 nm-es node és a szintén TSMC 7 nm-es node között bő 3x-os javulás van. TSMC 7 nm esetén nyilván sokkal kisebb területű lenne a GA106 chip.
Kezded érteni, hogy miért vérzik a nézeted ezer sebből?
-
Alogonomus
őstag
Csakhogy a felsorolt chipek határozottan erősebbek is lettek az elődnél.
Az azonos teljesítményű chipek mérete viszont határozottan csökken.
12nm, TU106 (RTX 2070): 445 mm²
8nm, GA106 (RTX 3060): 276 mm²12nm, TU102 (RTX 2080 Ti): 754 mm²
8nm, GA104 (RTX 3070): 392 mm²Azonos teljesítmény egyre kisebb chipmérettel elérhető, és egyre olcsóbban is adták az azonos teljesítményű újabb kártyát.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Ezek tervezett értékek. Már hónapok óta hallani, hogy nőni fog a fogyasztás. Az AMD-nél 450 wattot mondanak egy ideje a csúcsra, míg az NV-nél 600 wattot. De nem kizárt, hogy azóta már ezen is tekert egy 200-ast az NV.
Két alapvető probléma van. Egyrészt az új memóriák iszonyatos fogyasztók. Egy teljes, dupla oldalú 384 bites konfiguráció be tud nyelni 150 wattot, és ha maradsz továbbra is a ~300 wattos szinten, mint az aktuális generációnál, akkor bő 100 wattot csökken a GPU-nak juttatható fogyasztási keret, miközben az 5 nm adta előny messze nem akkora, hogy kifacsard belőle a masszív teljesítménynövelést. Eközben az 5 nm-es waferek ára beszabehu kategóriába esik, vagyis muszáj komoly teljesítményt lerakni az asztalra, hogy 700 dollárt elkérhess a legkisebb modellért, hogy megmaradhasson a megszokott profitráta. Pont az 5 nm-es waferek kibaszottul magas ára az oka annak, hogy az AMD a legkisebb Navi 33-at nem viszi át erre a node-ra. Egyszerűen nem nyernek vele annyit, hogy a 6/7 nm-hez viszonyított két és félszeres waferárat kompenzálni tudják. És az NV-nek a helyzete abból a szempontból rosszabb, hogy ők a Samsung 8 nm-hez képest számolnak komolyabb waferárra, ami bő ötszörös különbség lesz a végén. Tehát egy hasonló méretű lapkát a TSMC-nél ötször drágább lesz gyártaniuk, mint most a Samsungnál. Mindent összevetve ezt csak akkor tudod kitermelni, ha elviszed a teljesítmény felé a fejlesztést, nem törődve a fogyasztással, de ez iszonyatosan zabálni fogja a wattokat. Ugyanez igaz az AMD-nél is a Navi 32-re és 31-re. Az részben 5 nm, igaz lesz mellette egy 6 nm-es chiplet, ami a nem annyira skálázódó elemeket tartalmazza. Viszont még az AMD-nek is fejfájást okoz a jelentős waferár, és ők is úgy döntöttek, hogy rávernek a jelenlegi 300 wattos szintre 150 wattos extrát, mert úgy lehet akkora teljesítményt belepakolni, hogy reálisan árazni lehessen a terméket.
#37402 b. : Az egész generációra rávetül a magas 5 nm-es waferár, ami 20000 dollár fölött van jelenleg. Talán egyszer lesz 17000 dollár, de most még nem annyi. A 6-7 nm-es waferár is 10000 dollár fölött volt igen sokáig. Most kezd 9000 dollár környékére esni, ami nyilván jó. A Samsung 8 nm-én pedig 5000 dollár alatt van már a waferár, az egész kellemes. Talán idén beesik 4000 dollár alá.
A problémát az AMD és az NV is ugyanúgy fogja kezelni. Alul egyszerűen nem lesz frissítés. 5 nm-en szimplán nem kitermelhető a középkategória, és úgy másfél évig nem is lesz az. Itt nem is lenne igény 250 wattot fogyasztó hardverekre, tehát hagyják az egészet a mostani termékekre. Azoknál a waferár csak csökkenni fog, tehát a gyártás egyre kedvezőbb lesz idővel.
Az AMD-nél van erről információ. Ők csak a Navi 21-et veszik ki, de a Navi 22, 23, 24 megmarad, és ezeket egészíti majd ki a Navi 33, 32 és 31. A NAvi 33 váltja a Navi 21-et, és a Navi 31-nek van még egy speckó iránya, ha kellene még egy plusz teljesítménylépcső, de az már 650 wattot fogyasztana, és az AMD meglátása szerint 500 watt az a felső határ, amit benyel a piac. Az NV ennél sokkal bátrabb. Ők simán mennek 500 watt fölé. A GA103 marad az aktuális sorozatból a legnagyobb, ezért fejlesztették, és fölötte a GA102-t fogja váltani a legkisebb új generációs lapka, és a többi meg fölé érkezik.
[ Szerkesztve ]
-
Hát igen, ez szomorú, de ha így mennek a bérgyártói árak felfele ( állítólag 3 nm $30.000 a TSMC-nél / waffer) akkor már sok csodára nem lehet számítani, nem fogják a legújabb gyártást kihasználni, meg hát már nem is hoz annyit a konyhára.
(The price of a 10nm wafer costs almost $ 6000 and a 7nm wafer costs $ 9346. A price per wafer that nearly doubles at 5nm, each costing nearly $ 17000.)Ezekben az infókban azért általában mindig a csúcs GPU-t veszik alapul, ami remélem nem az egész generációra vetül rá.
Azt gondolom a kisebb SKU-ban meg marad az Ampere, ami 5 nm en szerintem egy sokkal jobb GPU lesz,mint most.
Én iylen Pascal szintre számítok tőle. Pl a GA102 egy 4060 kártyában 5 nm TSMC-n szerintem kb ugyan ezt a teljesítményt fogja hozni vissza vett fogyasztással de magasabb órajelekkel.[ Szerkesztve ]
-
Milyen Tv-d van? mert 4 K@VRR 120 Hz-n teljes értékűen nem sok tv ben működik.
Nekem is Philips-hez majd jön egyszer frissítés, talán
Én úgy tudom ezek [link] a konverterek teljes értékűen támogatják a HDMI 2.1 funkciókat. ALLM ről mondjuk nem írnak de ha VRR megy annak is mennie kell[ Szerkesztve ]
-
Jobban jársz egy dedikált medialejátszóval szerintem ma már főleg ilyen VGA árak mellet. Nvidia Shield, Apple TV , Zidoo stb..aztán az mellé mindegy mit tud a VGA már ilyen téren.
Én is nehezen engedem el a HTPC-t szenvedek a Zotac egy példányával a projektorhoz.[ Szerkesztve ]
-
EXA
aktív tag
Én sem értem mi ez a hatalmas kiakadás, csodaszép a játék. Végre jött egy játék, ami a PC-t vette alapul és nem a konzolokat. Telerakták a legújabb technológiákkal és még low beállításokon és csodásan néz ki. Dehát mindenki hozzászokott a magas FPS-hez, ahhoz hogy megjelenik egy új játék és szalad mindenen 60 fps+.
-
A Crysis is elképesztően szép volt anno
Amúgy ez a megjelenés most nagyon jó tükör lesz a PCs társadalomnak (vagy egy részének) - kíváncsi vagyok, milyen arányban lesz a dícséret a szépség kapcsán és a panaszkodás a sebesség kapcsán. Az utóbbi években úgy tűnt, hogy az előbbi erősen háttérbe szorult - lássuk most meg.
-
Alogonomus
őstag
Egy 300 ezres kártyával még rendben van, hogy 4K esetén kompromisszumot kell(het) felvállalni a 60 fps eléréséhez, de egy millió forint fölött árult kártyától már jogosan várná el a tulajdonosa, hogy a konkrét gyártó által támogatott stúdió játékában legalább a 60 fps-re elég legyen az elérhető csúcskártya teljesítménye maximális beállítások mellett is.
-
EXA
aktív tag
Értem, azért 2k-ban a dlss 3080-al 65 fps az elég karcsú. Bár gondolom 1-2 beállítás kikapcsolásával meg lejebb vételével azt a sámot jelentősen fel lehet majd tornázni. Meg mondjuk ez egy single game szóval annyira nem is fontos a 100+ fps. Viszont azért a 2080 Ti meg a 3080 közötti kölünbség az elég komoly.
-
-
Z10N
veterán
"Aki csúcs videókártyát akart venni, annak eddig is mélyen a zsebébe kellett nyúlnia (lásd Titan széria)"
Ez meg "csucs" konzol."szóval az RTX 3090 árát ilyen téren "konzolosítani" teljesen felesleges"
Price/perf-t neztem, szoval nem volt felesleges. De mondtam hagyjuk..."Aki RTX 3090-en gondolkozott vagy gondolkozik, azt aligha érdekli az ára..."
Akinek ennyi penze van nem ilyenre kolti... -
EXA
aktív tag
Ma meg olvastam a 3060 Ti-ról [itt], mondjuk azt nem tudom honnan szedték, hogy már egy hónapja érkeznek a boltkba a szállítmányok. De olyan lehet, hogy mivel voltak pleytkák azzal kapcsolatban, hogy nem okés a kihozatala az nV-nek a sok selejt chip elmegy majd 3060-nak? Én néznék egyet, ha itt most berobannának egy nagyobb készlet 3060-al, de a Covid a 2020 és random csillagok állásából meg az nV dolgozói sem tudják sztorijából én már bármit eltudok képzelni.
-
Abu85
HÁZIGAZDA
Elég mennyiség az NVIDIA szerint még hónapokig nem lesz. Ezt már mondta a bőrkabátos. De valamennyi azért lehet, viszont idén azért nehéz a mostani szinthez mérve is normális mennyiséget szállítani egy decemberben kiadott VGA-ból.
És most mit vársz az NV-től? Hozzanak rögtön egy 3090-nél gyorsabb VGA-t. Nem olyan egyszerű az. Hoznak, amit tudnak, ez is figyelemelterelés, de kérdéses, hogy elég hatékony-e.
#35193 Cifu : Az lehet, hogy a Founders Edition kártyák forgalmazására exkluzív szerződése van a BestBuy-nak. A szerződés értelmében más nem adhatja ezeket el rajtuk kívül a következő egy év során.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Nincs is. Meglátod, hogy mire lesz 3060 Ti elég mennyiségben már január közepe lesz. Egyszerűen az ünnepek alatt a szállítások is eléggé limitáltak.
Ez a bemutató elsődlegesen annak szól, hogy a 6900 XT mellett legyen valamiről beszélni. Ne azt nézze a piac, hogy a 6900 XT mit tud. De valós haszna nincs. Egyszerűen túl közel vannak az ünnepek. A 6900 XT is nagyrészt azért jön ki, hogy legyen valami hype, abból sem látsz majd sok terméket idén, de az 1000 dolláros ára miatt nem is lesz annyira kapós.
#35188 Raymond : Tudtommal GPU-król van szó, és a GPU-piac ilyen szempontból lényeges lehet.
[ Szerkesztve ]
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Autós topik
- Opel topik
- Milyen pendrive-ot vegyek?
- Milyen hagyományos (nem okos-) telefont vegyek?
- Tkomos box más szolgáltató netjén.
- One otthoni szolgáltatások (TV, internet, telefon)
- Windows 11
- NVIDIA GeForce RTX 5080 / 5090 (GB203 / 202)
- Bemutatkozott a Poco X7 és X7 Pro
- Szólánc.
- További aktív témák...