-
IT café
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Busterftw
nagyúr
válasz
GeryFlash #47098 üzenetére
Van egy unlisted video is:
DLSS 4 vs DLSS Off Comparison | Cyberpunk 2077Így lesz egál a 4090=5070
-
KRoy19
őstag
válasz
GeryFlash #46965 üzenetére
Oké, de akkor is a mondandóm lényege ugyan az. Ha performance módban megvan a fix 60 FPS, Qualityben meg csak 40-50, az akkor is GPU limit, mert ha CPU limit lenne, akkor performance módban sem tuna kisajtolni a CPU 40-50-nél többet. Az esetek legnagyobb részében GPU limit miatt nincs meg a 60 FPS, szóval sokkal több értelme volt a GPU powert megtolni és a CPU-t szinte érintetlenül hagyni. Persze jobb lett volna az összkép, ha van szignifikánsabb CPU upgrade is, de akkor meg még drágább lett volna a PRO konzol, szóval ha csak az egyiket lehet meglépni, akkor annak egyértelműen a GPU-nak kellett lennie.
-
-
DudeHUN
senior tag
válasz
GeryFlash #46952 üzenetére
Azért egy zárt rendszernél, mint a PS5 nem úgy működik, hogy csak beledobom és megy és gyorsabb lesz. Itt vannak kompatibilitási kérdések is, a szoftverhez mennyi a reálisan elvárható munka, amit a fejlesztő beletegyen a Pro "élményért". Ha beleteszi ugye, mert anélkül is mennie kell ám. Mennyi tranzisztort visz el a váltás, stb...
A lényeg a skálázó volt, a nagyobb felbontás és több GPU idő. A cél piac túlnyomórésze eddig is elégedett volt a játékok futásával az alapgépen is. Kapnak egy részletesebb képet a tévére. Ahol GPU limit volt még jobban is fut. -
DudeHUN
senior tag
válasz
GeryFlash #46937 üzenetére
Generáció közben biztos jót tett volna minden fejlsztőnek egy CPU upgrade is...
A PS5 PRO nem nextgen gép, hanem egy ráncfelvarrás. Ezért sem lett teljesen más a GPU sem. Sonynak is a szoftverből jön messze a legtöbb pénz.
Az már más kérdés, hogy 800 EUR masszív érte, de egyrészt a live service buktát is vissza akarják hozni valahogy, másrészt szépen letesztelik a piacot ennyiért hogyan fogy egy konzol. Eddig minden elmegy belőle, amit legyártanak. Szóval évtized végére a PS6 esetén már az 1000$/€ sem annyira sci-fi így.A PS5 nem tart vissza semmit. Ahogy az eddigi konzol genek sem. Lehet rajta sírni, de amíg az átlagos PC jó esetben 8GB Vramos egy 1080p kijelzőn és jó esetben legalább 6 magos több éves CPU-t tartalmaz, addig nem a konzol a hibás. Ha erősebb lenne, akkor meg nem lenne elég egy RTX 4070 sem semmire. Akkor meg azon menne a sírás.
-
T.Peter
őstag
válasz
GeryFlash #46939 üzenetére
Hellblade-hez kene hasonlitani, azzal meg semmilyen szempontbol nem tud versenyezni. Ps4 erabol is csak par jatekot tudsz felhozni ami jol nez ki, szoval gen vegen ugyanott leszunk. Plusz meg mindig nem kene elvarni ilyen fejlesztesi ciklusokkal, hogy tobb jatek legyen ami szebb, foleg, hogy egyre kevesbe lesz latvanyos a kulonbseg. Egyebkent pedig lassan, de erkeznek. Texturak valoban lehetnenek jobbak, de ez van, tobb ram kell, mert a textura mellett most mar mas is van ami nagyon eszi.
Az artist-ok meg nem csinalnak semmi olyat, amihez programozo kell, es ez forditva is igaz. Nem kell oket lenezni. -
S_x96x_S
addikt
válasz
GeryFlash #46937 üzenetére
> Reszben egyetertek, az AMD azzal hogy ennyire szar RT-ben
> valoban visszafogja/ vissza fogja fogni a jatekipart,
> mert konzolt ok gyartanak.A konzolgyártók (Sony, Microsoft, Nintendo) maguk határozzák meg, milyen hardvert rendelnek, így az AMD ray tracing képessége önmagában nem gátolja a játékipari fejlődést.
Elég csak megnézni a közelgő Nintendo Switch 2 pletykákat:
Az eddigi verzió is elég gyenge volt RT-ben
és csak most erősítettek rá az RT-re és a DLSS-re,
ami már ~ "According to the details, the next-gen console will have ray-tracing functionality comparable to the Xbox Series S."A konzolgenerációk lassabban váltakoznak,
mint a PC-s komponensek ( GPU, CPU),
így a tervezési ciklusok közben óriásit változhat a technológia.
És az AI; RT rohamos előretörése teljesen felborította a korábbi forgatókönyveket;
kérdés, hogy a következő generáció miként fog mindehhez alkalmazkodni.Mivel a Microsoft eléggé tolja az AI-t ( lásd Copilot ) - még az is elképzelhető,
hogy a következő XBOX - már AI képességekkel is bír.
és ehhez kell sok -sok nagyon gyors VRAM.A Sony még gyárt 8K-s tévéket és ehhez kell tartalom; elképzelhető, hogy a következő PS konzol már a 8K-s játékok memória igényeire lesz optimalizálva.
Ami probléma, hogy olyan gyors a technológia fejlődés az AI-terén,
hogy nehéz egy fix hardverű konzolnál ~6 évre előre tervezni.és végül; ha valaki ismeri a Mandalorian sorozatot, ami UE -vel készült - és állítólag 4db erős pc generálta a háttérképet. ( valószínüleg RTX A vagy RTX Quadro )
úgyhogy az UE-nek nem lehet probléma a nagy VRAM.
[ This is the Way! ][ Szerkesztve ]
-
3L1T3
addikt
válasz
GeryFlash #46939 üzenetére
Csak grafikarol /latvanyrol beszélsz folyamatosan és azt se látod, hogy gazdaságilag,milyen buktatói vannak cirka 5 év az iparnak. Azt se veszed szamitasba, hogy konzolt nem fogsz 1000-1500 usd felett árulni sikeresen. Felhozod az Ordert ami egy scripted , prerendered valami es jatekelmeny szempontjából egy nulla.
Sajnos nem tudom komolyan venni a hozzaszolasaidat.
-
GeryFlash
veterán
válasz
GeryFlash #46938 üzenetére
Azert jol nez ki ez az Indiana Jones, de azert atvezetokben eleg vegyes, bizonyos arcok szepek bizonyosok kevesbe. Rakjuk mar melle 2015-s Order 1886 cimu jatekot , latjuk hogy hol gyengebb a jatek (pl megvilagitas, objectek szama), de azert az atvezetok, arcok mimika ezekben szerintem minimum egy szint ha nem jobb mint az Indiana. Es az Indiana egy tenyleg nagyon szep jatek a mai mezonyben, a tobbi 90%-ot szarraveri az Order 1886 atvezetok szinjen (is). 10 eves jatekrol beszelunk b*sszameg!
De megkovetem magam az elozo kommentemert, a Wukong valoban egy szintugras, azert ezek a megvilagitasok es textura ez valoban PS4 eraban nem latott szinvonal. A problema hogy most igy 5 ev utan van 3 jatek amire ra tudjuk mondani hogy hat igen azert ezek mar szebbek mitn a 2015-2019 kozotti PS4 cimek.
[ Szerkesztve ]
-
T.Peter
őstag
válasz
GeryFlash #46935 üzenetére
Wukong, Indiana Jones, stb. Az egetett vilagitas le lett cserelve dinamikusra, stb. Pont grafikailag legalabb lathato a kulonbseg. Vannak teruletek amik viszont semmit sem vagy alig fejlodtek, mint peldaul a fizika. Annak ellenere, hogy ott van az engine-ben a tudas, csak alig hasznaljak.
-
válasz
GeryFlash #46929 üzenetére
Szerintem ez addig így is marad amíg legalább az egyik nagy konzolgyártó nem tér vissza ahhoz, hogy egyedi hardvert alkalmazzon ami kicsit is a jövőbe, egyedi megoldásokat erőltet, ( nem csak halbatyol róla) és mutat, addig nem lesz itt semmi.
Az hogy szabvány konzolokat alkalmaznak, szabvány eljárásokkal egyforma szart tolnak, RDNA2 re alapul még 4 évig a legerősebb konzol és az UE5 akar a legnépszerűbb motor lenni, miközben bughalmaz és átlagosnak is éppen nevezhető hát erre viszi az ipart sajnos.
Már az első demók megjelenésénél kétségbeestem amikor mindeki ájuldozott az UE5 től és eldobálták a stúdiók az egyedi motorokat, hogy mi lesz ebből..Kíváncsi leszek arra, hogy aTesla/ Musk valóban mennyire érdeklődik a játékosok iránt a stúdiókon át. Bízok benne hogy terveznek egy konzolt.
[ Szerkesztve ]
-
Csokifalo
senior tag
válasz
GeryFlash #46927 üzenetére
pedig amúgy várós lenne, nincs jelenleg egy rendes kártya ami a 4K-t, nemhogy a 8K-t rendesen kiszolgálná ( 4090 egyes játékoknál 4K fullosan natív 40-50 fps
, vicc )...az biztos, hogy kell lennie majd valaminek hogy a mai gazdasági helyzetben rávegyék a vevőket arra, hogy milliós árakat kifizessenek az 5090-re... nyilván annak az erejének meg jóval brutálabbnak kellene legyen mint a 4090, mert akkor mindenki marad a 4090-en... tehát akár még igaz is lehetne, az se lenne meglepő, bár torkon fosná az előző gen. vevőit, de arra is láttunk már példákat. Én inkább abban leszek biztos, hogy mire ideér 700-750 alatt nem lesz 4080, és 1-1.2M lesz minimum a 4090... legalább is az első eresztések
[ Szerkesztve ]
-
cucka
addikt
válasz
GeryFlash #46152 üzenetére
Szóval ha úgy állítod be a játékot, hogy több vram-ot használjon, mint amennyi van, akkor el fog fogyni a vram és lassú lesz a játék?
Fú, ezt nem gondoltam volna, le vagyok döbbenve.
Amúgy az indiana jones eléggé kivételes játék, mert alapból megköveteli a hardveres ray tracing-et. Egész pontosan global illumation-t használ a fényekhez. Szerintem ez az első játék a piacon ilyen minimum követelménnyel.
[ Szerkesztve ]
-
Jacek
veterán
válasz
GeryFlash #45810 üzenetére
Az szep gen valtas
Nem is refresh hanem uj gen..
1080-2070 +15%
2080-3070 +16%
3080-4070 +5%
4080-5070 -10%
Es most majd lassabb lesz sacc 10%-al es 12Gb.. hat szepen telibeszarjak a fanokat akik meg tapsolnak isDe varjuk meg a megjelenest a kurva anyazassal
De ez egy 5060 lesz
[ Szerkesztve ]
-
válasz
GeryFlash #40767 üzenetére
Nyomhatod személyeskedve meg lekezelően, de igazából kettönk közül nem én fanboykodok és próbálom ezzel leplezni hogy egy fanztazmagóriára ,egy elképzelésre próbálsz tényként utalni.
Nem arról van szó, hogy a VGA eladások világszinten mennyit csökkentek a bányászat után, hanem hogy ahol GPU van, a GPU bevételük, a szerverbevételük,a laposbevételük 80+ % része az Nvidia GPU -ból származik. Mindegy mennyiből.,200 millióból is és 20 millióból is. Én elolvastam anno is Abu cikkét, kommenteltem is hozzá , a cikk több kiderült tény elött jött létre amiről pont annál a cikknél írtam is :
nem tudok többet neked hozzá és többet tenni mint anno is már leírtam :[link]A tényeket könnyű figyelmen kívül hagyni és egyetlen tényt sem írtál le csak elgondolod hogy az MSI meg az Asus meg a Giga majd jól hátatfordít Nvidiának megsértődve, miközben belőlük élnek. Miközben Nvidia 60 % haszonkulccsal dolgozott ők 480% -kal mentek a bányászat alatt és most szeretnének ők is legalább annyit ,nehezen fognak visszaállni 25 % ra mikor 5 éven belül 2 bányaszezonban 3-400 % árréssel dolgoztak... Az fel sem merül, hogy azon a kártyán az AIB is keres és nem 5 % árrést . ezért alkotja meg Asus a Rog strixet amit aztán 200 dollárral többért ad el és az MSI a gaming X et és a Giga az Aurust stb...
Mint írtam nem nehéz utána keresni hogy az 1.37% 2022 Q4 netmarginról 2023 Q4 re 6.04 % -ra akarnak felmenni. jelenleg 4.32-n állnak Q1 ben a szar Adaval...
Zotac: bevétel és ebből Brand értékesített Nvidia kártya: gondolom megérthető: hogy a kék oszlop az eladott VGA kártyák arányaa margin meg ott van.
A Gross profit 2020 ban 6.17 milliós eladási darabszámból 795 millió dollár.
2021 ben 13.57 Millió darabszámból 4287 millió dollár. ehhez szoktak hozzá ez volt a csúcs. 480% bevétel árrés vs Nvidia 60% áérrés.[ Szerkesztve ]
-
válasz
GeryFlash #40765 üzenetére
Semmivel nem támasztod alá a mondandódat csak véleményed van bárminemű tény nélkül.
Nem nehéz rákeresned a bevételükre Asusnál, MSI-nél és Giga-nál. A bányászat 1+ éve végetért egy cég sem ment csődbe.
MSI 2022-höz képest 4x akkor bevételt prognosztizál 2023 ra de nem vagyok hajlandó neked ide belinkelni mert megtehetnéd magadtól.
És ez nem azt jelenti hogy nem bontaná fel velük bárki a szerződést csak éppen az EVGA teljesen más elven működött , mint a fenti 3 cég.
Igor nem az Nvidia narratíváját mondja. Cikket írt tényekkel. Nekem nem volt olyan generáció amiben ne lett volna EVGA kártyám. Kedvenc gyártóm volt. Nvidia semmiféle narratívát nem vázolt fel az üggyel kapcsolatban így nehéz lenne a véleményüket terjeszteni.[ Szerkesztve ]
-
válasz
GeryFlash #40759 üzenetére
Hogyne lenne relevanciája? A bevételi statisztikáknak nincs relevanciája?Az nem csak a bányászat hanem friss adatok elég rákeresned. A hülyeségeknek van relevanciája?
Mit gondolsz ha Kilépnének Nvidiától AIB ként miből élnének ezek a cégek? Szerverek, laptopok, Asztali piac. kb 80 % része az Nvidiáé. ha AMD 2x akkor a profitot biztosítana a VGA-ra sem érnék utol összbevételként az Nvidiát és az az AIB kártyák felső szegmense jóval (25+ % )magasabb árkategóriában mennek mint az MSRP ár ami alapból tartalmaz már profitot.Az EVGA üzletpolitikájáról több oldal írt cikket . Nem szerintem hanem mások, nálam hozzáértőbbek szerint is. pl Igor, érdemes lenne elolvasnod... :[link]
[ Szerkesztve ]
-
Busterftw
nagyúr
válasz
GeryFlash #40757 üzenetére
Igazabol az AIB tudnak olyan niche-t adni (pl AIO modellek) vagy tobbfele kinezetu/meretu/teljesitmenyu modell, amivel az Nvidia nem fog foglalkozni valoszinuleg.
Plusz egy MSI, ASUS stb siman megcsinalja azt, hogy a TUF vagy OMEN PC-ben berakja a TUF alaplapot, TUF PSU-t, TUF VGA-t, csokkentve a VGA rizikot.
[ Szerkesztve ]
-
válasz
GeryFlash #40757 üzenetére
Az a gond hogy nem nezitek meg mennyit keresnek az AIB partnerek pedig belinkeltem feljebb.A banyaszat utan is rekord nyereseggel zar MSI ,Giga Asus meg főleg.80% fölötti Nvidia gpu val szerelt hardverekkel.Asus kb 40%haszonnal árulja a VGA-kat.EVGA teljesen más miatt esett ki.Kis piacot szolgált ki,saját maga tervezte a nyakokat és a legdragabb ugyfelszolgalati megoldast alkalmazták.Nincs köze az Asus ,Giga,MSI több lábon álló kapcsolatával az Nvidiával.
-
válasz
GeryFlash #40464 üzenetére
Azért közben redditen lemérték és jelezték, [link]van turpisság az AMD részéről ebben, gondolom direkt csinálták meg így , csak úgy mint az előző RE játéknál. Valójában 3-4 GB a foglalt mennyiség még egy 4080 esetén is.... 3 GB ra kell állítania textúra pakkot. Az FSR szörnyű benne állítólag,nem értem AMD-t miért nem ellenőrzi le a szponzorált játékait.
[ Szerkesztve ]
-
fLeSs
nagyúr
válasz
GeryFlash #39839 üzenetére
Na. Ennek most utánajártam.
3080 teszt: [link] memória: Micron MT61K256M32JE GDDR6X
6900 XT teszt: [link] memória: Samsung K4ZAF325BM-HC16 GDDR6alibaba árak:
GDDR6X [link] $16.6 több mint 1000 db esetén
GDDR6 [link] $12 több mint 1000 db eseténÉn ennél jóval alacsonyabb árakkal szoktam számolni a [link] oldal alapján (sztem az AMD én az NV is ennél olcsóbban veszi, biztos nem alibabáról szerzik be hanem közvetlen a gyártótól), de a lényeg, hogy az alibaba árak szerint nincs óriási különbség a GDDR6 és GDDR6X árak között. Az X tényleg drágább, de nem többszörös vagy ilyesmi. 16 GB memóriánál ez a $4.6 különbség = $73.6.
Nvidiánál a gross margin 60% körül mozog, de ebben benne van minden amit gyártanak, HPC, data center, VGA, stb. Csúcs VGA-nál én 50-60%-kal számoltam.
Az AMD gross marginja még csak mostanában közelíti meg az 50%-ot, szintén beleértve mindent amit gyártanak (Epyc, Ryzen, Radeon, Instinct, stb) . Csúcskártyánál itt is 50-60%-ot számoltam.Szóval lehetséges, hogy a mem és az árrés átbillenti a mérleg nyelvét. De nem a GPU chipek miatt szvsz.
-
válasz
GeryFlash #39839 üzenetére
Mondjuk az ősszel megjelent GDDR6X verziós 3060Ti ára [link] erre rácáfol.
Szerintem nincs már jelentős extra különbség a GDDR6X és a magas órajeles GDDR6 között.
Nvdiai az egyik legnagyobb partner mind a sima GDDR6 ra és egyedüli a GDDR6X re tehát biztos, hogy van ebben megállapodás a Memória gyártókkal.
Ha van is köztük mondjuk 20 %, az a kevesebb mennyiség miatt egálra helyeződik.
Anno megjelent egy érdekes írás a Nerdtech sráctól jött tweet alapján, az árakról. Szerinte a 7900XTX 500 dollár körül van a 4080 300-350 dollár.[link]
Tehát fLeSs amir írt logoutra reálisnak tűnik az AMD re nézve.
Ez azt jelenti hogy 60-80% körüli haszonkulccsal is lényegesen olcsóbb lehetne mindegyik SKU. sőt ha kiszámoljuk igazából pont oda kerülhetne az árazásuk ahova valók hierarchia és nevezék ügyileg.
A 4080 kb 6-700 dollár a 4070 Ti meg olyan 5-600 dollár
Jensen tíz+ éve azt nyilatkozta hogy 40 % profitabilitás alatt nem érdemes VGA-t kiadni és fejleszteni de valószínűleg a bányászláz vérszemet adott az összes AIB-nak és zöd/ piros gyártónak.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz
GeryFlash #39063 üzenetére
Nem a raszter a problémája az RTX 4090-nek. Ahol nem teljesít ott egyszerűen CPU-limitje van még 5800X3D-vel is. Előjött ugyanaz a jelenség, amiről a HUB csinált anno videót ( [link] ), csak most már nem csak a kisebb CPU-kat érinti, hanem a leggyorsabbakat is. Ez ugye annak a következménye, hogy a 4090 egyszerűen gyorsabb, így sokkal gyorsabb processzor is kellene neki, de az meg nincs. Ez nem raszterből eredő probléma, ez egyszerűen nyers CPU-limit, amit a meghajtó működése okoz.
[ Szerkesztve ]
-
-
warcat
veterán
válasz
GeryFlash #38825 üzenetére
Ugye azt tudod, hogy ez meg a C1 is 4k@120 Hz ?
LG C2 OLED Review HUB teszt.
-
válasz
GeryFlash #38792 üzenetére
Hát ha ez bíztató akkor a CP2077 ben DLSS3.0 full RT -vel akár 8x gyorsabb mint a natív 3090 TI és állítólag szinte tökéletes a kép. Szóval elég egy 4060 500$ áron és meglesz a 3090 Ti sebessége néhány játékban
[link]
Amúgy elkeserítő ,de igazából 3 dologban reménykedem.
1,hogy AMD jó lesz és olcsóbb( nem úgy lesz olcsóbb hogy 10 % kal lasabb és 10 % kal olcsóbb)
2, Hogy ha kifutott az Ampere Nvidia árat csökkent mert AMD olcsóbb lesz.
3,Az AIB-oknak szól az árazás hogy ki tudják árulni a készleteiket. Mindenki megnyugszik ..csába, csak mi vagyunk leszarva de ezt már megszoktuk.aza helyzet hogy szerintem örülni kell az olcsó 3080-3090 kártyáknak és be kell szerezni egy 3080 12 GB verziót 5-600 dollár körül és ennyi.( nem nincs részvényem és nem érdekel Nvidia eladja e őket vagy sem, saját vélemény,de ennyiért én nem vagyok hajlandó Ada-t venni. 12 GB vicc.
)
[ Szerkesztve ]
-
Devid_81
félisten
válasz
GeryFlash #38787 üzenetére
192 bites foskompot...de legalabb draga, meg lesz DLSS 3, meg negy...
Az osszeset felhelyezheti Jensen...a kabatja ala.
Eljutottunk oda, hogy a mindenki szerint ez-az-ar-meg-teljesen-jo-mert-gyorsabbol XX70-est akarnak nekunk eladni 900 dollarertAzt birom a legjobban, hogy mindenki megmagyarazza sajat maga nyugtatasara, hogy ez most rendben van amugy, mert gyorsabb a regitol...
Majd igy jutunk el az RTX 9060-ig ami csupan $1999-ert baromi jo ajanlat lesz[ Szerkesztve ]
-
válasz
GeryFlash #38448 üzenetére
A 3090 nek egyetlen gondja van, az ára. Baromi szépen alulfeszelhető egy RTX 3080 szintjére, miközben gyorsabb annál. Nem az új árat nézem hanem a használtat
A 4070 10 GB vrammal semmi más csak pénz kidobás 4 K ra, RT nélkül is ha csak Nvidia nem tesz mögé valami újítást, de ha megnézed a Tweeteket nagyon sokan így gondolják.A 4080 más kategória lesz.16 GB fölé nem fognak menni a játékkészítők.
[ Szerkesztve ]
-
Jacek
veterán
válasz
GeryFlash #38448 üzenetére
Ma felraktak az aprora(sved) egy 3090-et 290e-ert
Egyebkent szerintem attol fuggetlenul hogy szopo agon vannak el lesznek szalva az arak. Ahogy pletyiben megy az 500dodos 4060ti, akkor kezd 600 a 4070, 800-900 a 4080. Egy lepcso ugras MSRP-ben. El kell adni a 3xxx sorozatot is.
-
válasz
GeryFlash #38445 üzenetére
GeryFlash:"ebbol es abbol hogy te szerinted a 3090 jobb vetel lesz mint egy 4070...
Ezekbol az az informaciokbol hadd szabadjon mar annyit megallapitanom hogy esetedben lehetseges egy vagyvezerelt gondolkodas, egeszen pontosan az hogy te drukkolsz a Nvidinak akiknek most az az erdekuk hogy a lassan eladhataltan 3080-3090 kartyakat kiszorjak."Erre és erre reagáltam : [link] [link] meg még volt vagy 10 hozzászólás a Vramról erre olvastál ott egy saját független véleményt ami így szólt!
"Hát egy árban és garival( na és teljesítményben) egy lenne én a 3090 et venném. a fogyasztás nem zavar, ha űthető. Azért a 4070 re a Vram limit szerintem jellemző lesz .
A 2080 Ti is ebből a szemszögből jobb, mint a 3070."Tehát a használt, már nem kapható 2080 Ti-t is azért ajánlom z amúgy éppen szintén túltermel 3070 nel hogy Nvidiát támogassam mert fan vagyok?
Ne szabadjon ilyet megállapítani mert ez egy nagy baromság.
Azért írtam ezt le mert két teljesen egyforma teljesítményű kártyából ha mindkettő garis ÉN azt venném amin elég a teljesítményéhez a Vram.
Ennyi és nem több. Nincs mögötte semmi tőzsdei részvények ( amik már évek óta nincsenek egyáltalán ) sem fanozás. Véleményem van mint ahogy bárkinek lehet erről ellenkező vagy ugyan ilyen véleménye
Én egy 4070 kártyára ha valóban 3090 esetleg ( Ti) erősségű lesz a 12 GB VRAM-ot viccnek tartom. 16 ami legalább kell rá szerintem.[ Szerkesztve ]
-
válasz
GeryFlash #38419 üzenetére
A hogy személyeskedsz egy baromság és ilyet leírsz rólam meg egy hazugság. Megtévesztek bárkit? Leírtam a Tényeket.. nem írtam mögé semmiféle Nvidia istenítést vagy bármit amiért itt rajtam játszd az eszedet.
2021 ben már ezek a megjelenések voltak közölve. Belinkeltem.A többi a itt összehordtál csak hogy személyeskedj meg fanboyoshatsz engem, kaptál az alkalmon, meg gyanúsítgatsz baromságokkal.
AZ emag meg az Ipon az egymilliós 3090 kártyákat nem miattam adta annyiért hanem azért mert megvették.
Őket gyanúsítsd ás rágalmazd pénzzel és részvényekkel való visszaéléssel és buzdítással ne engem egy nyilvános fórumon, ahol bárki visszakövetheti hogy én kit buzdítottam 3000 kártya vásárlására...AZ hogy nem vagy tisztában azzal, hogy 2018 óta az Nvidiának közölni kell a részvényesekkel a bányászat hatását a piacra az is egy dolog, de ez tény mivel megbüntették őket miatta már, mert 10 hónapig az előző bányászciklusban( 2018 ban) ezt nem tették meg.
Tehát ne játszunk már a naívat hogy ezek a befektetők Gazdagrét 4. emeletéről származnak.
ők nagyon is jól tudják a piac minden rezdülését. Bankok és befektetési cégek hatalmas tanácsadói irodákkal óriási létszámmal.
befektetők nem tudták mitől megy a szekér mert ezért mar egyszer pereltek és veszítettek. [link]
[ Szerkesztve ]
-
válasz
GeryFlash #38419 üzenetére
szerintem akkor nem követted a híreket. [link] Kopite és Greymond Q3 ra írta a bemutatást majd utána a kiadást [link] de már 2021 ben Greymond 2022 Q4 re írta az Ada( next gen) kiadás
természetesen nem boldogokde Az hogy valami visszaesik az extrán magas profitról a Jó profitábilis szintre nem jelenti azt hogy ez bármilyen financiális problémát fog okozni az Nvidiának. Konkrétan semmit. Jelenleg a kisebb SKU-k kiadása nem is sürgeti őket a magas árazás miatt. Még az olcsóbb helyeken is MSRP ár fölött mennek a kisebb kártyáik azaz extra profitot hoznak a tervezetthez képest. Egy 3050 300 $. 3060 380-400$.Most keresnek rajt annyit, amennyit a bányászat nélkül terveztek.
[ Szerkesztve ]
-
szmörlock007
aktív tag
válasz
GeryFlash #38419 üzenetére
Teljesen mindegy mit pampognak a részvényesek, legrosszabb esetben csökken a market cap (jelenleg 442,28 Mrd), aminek van honnan csökkennie. A cégnek ez semmilyen problémét nem fog okozni. A Datacenter részleg dinamikusan növekszik, az jóval fontosabb mint a gaming részleg. Ez igaz AMD-re is, ott is kb leszarják ha kicsit beesik a Radeon, igaz nekik az alapból sokkal kisebb így kb alig érzik.
[ Szerkesztve ]
-
válasz
GeryFlash #38414 üzenetére
Nem húzzák semennyire ,a terv szerint megy. Idén jön a csúcs SKU s jövőre a többi. jelenleg akciózzák a termékeket aztán kész.
A 3070 és az alatt lévő SKU-k MSRP ár fölött vannak még mindig. felső ház kártyáinak az ára lecsökkent( van amelyik) 90% -kal is mert azok fölé érkezik a 4090.
A fagyi nem nyal vissza nekik attól hogy eddig extra jó profitot termeltek. a mostani lecsökkent negyedéves bevételük a bányászat előttihez képest is extra magas.
A szívás az ARM volt nekik inkább.[ Szerkesztve ]
-
válasz
GeryFlash #38162 üzenetére
Ezek a jó eredmények az új TSE-ben .
és kopite megjegyzése hozzá igaza van hokuszpk-nak : [link]
"19000 is a conservative score, so I wrote ">19000"."
"I think an OC version of RTX 4090 from AIC can reach 20000pts in TSE Graphics. I will take it for granted."[ Szerkesztve ]
-
-
válasz
GeryFlash #38016 üzenetére
Nem rossz vétel sőt.Csak nem feltétlenül alternatíva egy Pc játékosnak főleg hogy itt a használtpiac és ahhoz hogy konzol szinten játsz nem kell Ada 4080 ,hanem elég egy több éves ryzen meg egy Turing.Van DLSS,FSR, RT.
Az a jó ha van konzol és pc is,de ez drága hobbi.Nekem Ps5 és egy több generációval ezelötti pc van,tökéletesen kiszolgál.Jah éscefy Switch,így teljes.
Aki a legújabb csilliárdos Kártyat veszi azonnal az meg pc kategórián belül lép,nem a konzol a mérvadó és ennek megfizeti az árát.
Konkrétan hamarosan vicces pénzekért lehet venni 3080 kártyákat kis türelemmel.[ Szerkesztve ]
-
Drizzt
nagyúr
válasz
GeryFlash #38008 üzenetére
Ezt ugy mondod, mintha a 4K a konzolokon nem dynamic resolutionnel lenne elerve ugyanugy... Raadasul altalaban eleve szarabb grafika van skalazgatva.
Nekem volt PS4-em, de nem sokat hasznaltam, egy 980Ti-s gephez kepest csattogos lepke szinvonalat nyujtott. Tobb konzolom nem is valoszinu, hogy lenne valaha.
-
KillerKollar
őstag
válasz
GeryFlash #38004 üzenetére
$500+ ebben a generációban max középkategória lesz mivel a 4090 nem lesz olcsóbb 2000$-nél hiszen már a 3090 Ti is annyi
A natív 4K@60 RTX mellett meg továbbra is marad a felsőkategóriának, a 3090/Ti közelében nincs a legtöbb játéknál ahol komolyabb RT effektek vannak, Cyberpunkban natív 4K-ban konkrétan RT off-al sincs meg a 60 fps még átlagban sem 3090-el... UE5 meg brutális lesz.
-
válasz
GeryFlash #38002 üzenetére
Több forgatókönyv lehetséges ,mert ez 18GBPS GDDR6.
1 ,10 GB lesz ,ami egy 3090 sebességű kártyához vicc.
2, mivel 2 GB modulok elérhetőek már ez 20 GB lesz.
3 ,Az nvidia ref 10 GB ,az AIB partnerek szabadon dönthetnek,hogy 1 vagy 2 GB modulokat tesznek.mint az Ampere esetében is tehették volna.Amúgy Nvidia developer a napokban tett ki egy eljárást,ahol lényegesen kisebb tárterülettel tud operálni a Jetson.Kb 30 . % és ráadásul gyorsabb is a Jetpakk használatával.
gbors :
[ Szerkesztve ]
-
Devid_81
félisten
válasz
GeryFlash #38004 üzenetére
Sajnos el kell szomoritsalak
Szerintem az RTX 4080 sem tudja majd azt amit Te kersz egy $500+ os VGA-tol.
Remelem hatalmasat tevedek, mert azzal mindenki jol jarnaSzerk: sajnos a konzol, mint emlitetted lehet majd az olcso gamerek menekulo utja.
Sokaknak mar nem veszi be a gyomra ezeket az arakat, es nem is csodalom oszinten.[ Szerkesztve ]
-
Petykemano
veterán
válasz
GeryFlash #38002 üzenetére
Szerintem erőteljesen építenek a felskálázásra.
A compute teljesítmény nem a minél magasabb natív felbontáshoz kell, hanem a raytracinghez. a képkockát alacsonyabb felbontáson fogják renderelni, azzal lehet spórolni a számítási kapacitáson és a szükséges RAM mennyiségen is. Alacsonyabb felbontáson pedig leginkább a frekvencia és azzal együtt a késleltetés számít. (=> RDNA3: 3-3.5Ghz) a képet meg majd felskálázza és feljavítja =>az algoritmus<=, amihez NVidia esetén ott vannak a tensor magok, az amd meg remélhetőleg felpakol majd valami FPGA-t.
Kevesebb ram => kevesebb sávszélesség, amit majd a lapkára felpakolt Cache (L2 / IF) kompenzál. Cserébe olcsóbb a PCB kialakítás, kevesebb kell a drága GDDR6 Rambó.
A különbözet a versenyhelyzetre tekintettel afogyasztó nyeri mega gyártó zsebre teszi. -
Abu85
HÁZIGAZDA
válasz
GeryFlash #37936 üzenetére
A Samsung 8 nm-es eljárása nagyon is jó volt. A legnagyobb problémája az Ampere-nek az, hogy az adott kategóriában szélesebb memóriabuszt használt, így nem csak több memóriachipet kellett rakni a NYÁK-ra, hanem ezek még többet is fogyasztottak a GDDR6-os társaikhoz viszonyítva.
-
podtibi
senior tag
válasz
GeryFlash #37810 üzenetére
Valószínűnek tartom hogy nincs itt semmilyen csata, inkább csak szimpla verseny. Az "győz" pénzügyileg aki hamarabb kér pénzt a vásárlótól. Ilyen hogy ő..., játékosok... Ez már nem róluk szól szerintem. El kell felejteni hogy a vásárló érdekei számítanának.
Hogy a táp és videókártya között van e profit..., az már egy másik helyzet, de a megegyezést semennyire sem tartanám kizártnak. Amíg megtehetik, addig olyan fogyasztással és olyan hőtermeléssel is adják ki a terméket, ami több profitot termel piaci szempontból, akkor is ha függ magától a versenytől is.[ Szerkesztve ]
-
válasz
GeryFlash #37792 üzenetére
A 3060 fiamé, ő egy 6+ éves GTX 1060 nal játszott és nem bírta már a játékokat amiket szeret. ( Assasin Creed és GTA sorozat) és ballagási ajándék lett neki.
Én anno pár hónapja feliratkoztam EVGA-nál erre a 3080 12 GB kártyára prémium memberként és értesítettek múlt héten hogy meglett én jövök. Nem mondtam vissza, de nem tudom megtartom e ,mert még úgy mond jó áron el tudnám adni de nekem sincs már garancia a 3 éves RTx 2070 kártyán amúgy...
Eddig nem volt értelmes áron ez a generáció, ha volt egyáltalán, mostanában kezd elérhető lenni. Amúgy nálunk még mindig erősen emeltek az árak, de kint már tényleg viszonylag jó áron hozzá lehet férni.Ami durva még a sztoriban hogy a fiam 6 éves kártyája 105 ezer forint volt anno, most 100 ezerért viszik el pillanatok alatt.5 ezer forint bukó 6 év alatt. Az én Strix kártyám 178 ezer volt most 180 ezerért simán elviszik. 2 ezer forint nyereség. ha most azt veszem 200 ezerért( 390 volt az EVGA) kaptam több lépcső előrelépést és 3 év garit. a fiam meg 85 ezerért 3x teljesítményt és 3 év garit.
Azt gondolom legalább 12 hónap mire elérhető lesz bármilyen új generációs kártya, és ott a "Ha."
[ Szerkesztve ]
-
-FreaK-
veterán
válasz
GeryFlash #37747 üzenetére
Ez biztos, hogy bottleneck a kevés memória? Van erre valami teszt ami egyértelműen megmutatja, hogy hátrány a 12gb alatti memória?
3080 10gb-ot készülök venni (de lehet várok év végéig), 3440x1440-re, egyelőre nem láttam nyomát, hogy olyan nagy hátrány lenne a kevés memó. A 12gb-os változat valami nagyon minimálissal gyorsabb csak, cserébe jóval drágább.Persze ezt is rengetegszer írja mindenki, mint a "kevés a 6 mag"-ot, de jelenkori részletes teszt nincs erre vonatkozóan, a jövőről meg csak találgatni lehet.
-
válasz
GeryFlash #37747 üzenetére
egy 3090TI szintjet hozza addig leszarom hany biten csinalja
OK, akkor ezzel ritka kivétel vagy
De amúgy ha a 104-es chipre 192-bites buszt raknak, az azért nem annyira jó dolgokat jelez előre. A VRAM-órajelet sem lehet a végtelenségig emelni, ill. ott is elszáll a fogyasztás.
Én a legutóbbi bányászláz hatására majdnem teljesen kiszálltam a HW-vásárlósdiból, és ezek a pletykák nem arra ösztönöznek, hogy a visszaszállás fontolgassam. A lap 3 éves, a CPU 2, a VGA meg 1. Ha valamelyik kirohad, akkor majd átgondolom, amúgy ez így simán elmegy még 3-4 évig.
[ Szerkesztve ]
-
válasz
GeryFlash #37744 üzenetére
Várd ki a végét még mi lesz, Ezek még nem hivatalos infók. Se ár se Vram se semmi. Ott lehet a hatalmas L2. plusz ott lesz valami amiről nincs infónk kopite szerint de beintegrálták az újítást a nem érkező 202 Hopperből.
A 2 GB rammodulok is elérhetőek már, az is lehet hogy dupla ram lesz.
Nem tudjuk Radeonon mennyi Vram lesz vagyis Abu talán tudja. Felesleges még idegeskedni előre a semmin.[ Szerkesztve ]
-
válasz
GeryFlash #37708 üzenetére
Nem kell hogy sokan elfogulatlannak tartsanak, mert elfogult is vagyok LOL.
Ő nem egy marketing szakember. Ő egy vezető mérnök és nem szokott orrba szájba nyilatkozni. A HPC Wire egy elég komoly szakoldal, nekik megnyilatkozza évente a dolgokat( 2018 tól hagyomány) válaszol a kérdéseikre aztán kb ennyi. Attól, hogy Abu szerint ez AI Buzzword az Nvidánál attól függetlenül ők 10 éve erre építenek hardvereket és az eladásai jó része a gépi tanulást segíti elő.( utalva az ő kommentjére, pont Pont Abutól nem kellene benyalni nagyon sok dolgot.)
GPU AI ML tréningben megkerülhetetlen tényezők, havonta jelentetnek meg erre épített eljárásokat, hol stúdió munkákra, hol tervezésre, hol játékra.
nekem az AI mindegy leszarom mennyire jó vagy rossz , nem is ez volt a vita lényege.
Egy olyan cég aki ebben meghatározó szerepet tölt be, Ezen nincs mit vitatkozni, ez így van. AZ hogy Abu állít valamit amire sehol nincs semmi bizonyíték, és lekezeli az Nvidiát, bármilyen újításait( lásd RT és Turing) tőle megszokott módon míg a másik oldalon egy fingás is hírértékű és forradalmi.
Az mellett a Synopsys felsorolja az összes partnerét és Nvidia nincs benne az nekem éppen elég arra hogy ne Abunak higgyek. Most már ugye finomításnak nem Synpsys DSO. ai.-t használ csak ezt meg azt licenszelnek.
A Samsung partneri viszonnyal tele volt a sajtó és ők is első oldalon reklámozzák.
Szerintem Nvidia is ott lenne nekik a listán ha így lenne ahogy Abu leírta.Sok céget sorolnak fel..
Innentől simán elhiszem amit Bill bácsi mond, hogy saját és egyedi fejlesztésük van bizonyos tervezési és gyártástechnológiai eljárásokra, amit nem is értem miért is vonna kétségbe bárki a világ egyik legnagyobb és legpénzesebb Chiptervezőjétől sok éves tapasztalattal AI terén. AZ hogy ez csak bárki szerint az én elfogult véleményem nem gond, de szerintem ez pont nem az én elfogultságomra bizonyíték.. Ennyi.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz
GeryFlash #37681 üzenetére
Itt a gyártási költség a nagy probléma. Úgy számolj, hogy 5 nm-en kétszer drágább ugyanaz a lapka, mintha kihoznád 6 nm-en. Ez nagyon komoly probléma, és emiatt csinálja az AMD az egyes chipleteket 6 nm-en. Ugyanez az oka annak, hogy a Navi 33-nál a compute chiplet is 6 nm-en jön. Ez lesz egy 200 watt körüli fogyasztású fejlesztés.
A Tom's Hardware táblázata egy vaskalapos bullshit. Eleve a 4 nm az 5 nm-nél is drágább, és kapacitásban kb. az 5 nm-es kapacitás 5%-át, ha kiteszi. Ezen belül a 4 nm-ből a P vagy az X verzió az, amire normális GPU-kat lehet tervezni. A P-n még idén megkezdődik a kísérleti gyártás, és ezt használja Hopper, de ugye itt számításba kell venni, hogy a tömeggyártás csak a következő évben kezdődik meg. Az X esetében még a kísérleti gyártás is 2023-ban kezdődik, és a tömeggyártás leghamarabb a jövő év végén esedékes.
Mindemellett senki se számítson 500 dollár alatti 4 vagy 5 nm-en készülő új kártyákra. Egyszerűen a waferköltség annyira, de annyira magas, hogy nem fér bele. A Navi 33 pont azért marad 6 nm-en, hogy meg tudja támadni az 500 dollár alatti árszintet, ha erre szükség van. Ha 5 nm-en készülne legalább a compute mag, akkor erre a Navi 33 se lenne képes, pedig az a fejlesztés dizájnban egy 128 bites motyó, tehát a rendszer komplexitása valahol a 6600 XT és 6700 XT között van, a teljesítménye pedig 6800 XT és 6900 XT környéki. Egyszerűen még egy ilyen picire tervezett dizájnnál is olyan nagy költség lenne az 5 nm-es waferár, hogy nem fér bele a normális árcédula. Ez meglátszik a fogyasztáson is. A Navi 33 200 watt környéki fogyasztást kínál, mert az a fő célja, hogy a teljesítményt tegye elérhetővé. Az NV-nek a legkisebb 5 nm-es fejlesztése is 300 watt fölött fogyaszt, mert ott az új node ára annyira extrém, hogy muszáj mögé rakni egy komoly teljesítményt, hogy legitimáld vele a 700-800 dolláros árat, amit egy 256 bites dizájnnal reálisan lehet hozni.
Ezt a problémát most nagyon sok pletykagyáros nem érti meg, és még mindig azt hiszik, hogy itt lesznek olcsó új generációs VGA-k.#37682 Petykemano : Nincs elérhető 4 nm-es eljárás, ami nem kísérleti lenne. Ezért is kicsi most a kapacitás. Mint írtam, egy GPU-nál N4P-re van szükség minimum. Ez csak jövőre kerül tömeggyártásba. Az N4X leghamarabb jövő év végén, de inkább 2024-ben. Amíg egy node nem kerül tömeggyártásba, addig csak kis kapacitással érhető el.
Jelenleg a 4 nm, nem teszi ki az 5 nm-es kapacitás 5%-át sem. Ki az a hülye, akik kihoz rá egy nagy mennyiségben készülő fejlesztést? A Hopper az azért 4 nm-es, mert kb. pite mennyiségben készül, annak reális, ha kiadják kísérleti gyártás szintjén, mert annyit úgy sem rendel belőle a piac, hogy kifogyjon. Eleve csak a szerverpiac egy picike, kb. fél százalékát tudja célozni a specifikus interfész miatt. Aztán majd jön a szabványos interfésszel, amikor beindul a tömeggyártás 4 nm-en. A Zen 4 chiplet a Hopperhez viszonyítva egy masszív tömegtermék, aminek milliószor nagyobb a piaca, így jóval több lapkát is kell gyártani belőle.[ Szerkesztve ]
-
válasz
GeryFlash #37679 üzenetére
Érdemes azért ezt óvatosan kezelni még. Volt a napokban hír hogy az Nvidia már AI val fejleszt és tesztel GPU kat a mérnökök munkájának megsegítésére. Állítólag ez az AI képes 92 % ban önállóan áttervezni egy kész tervezett vagy gyártott GPU dizájnt egy másik csíkszélre vagy gyártásra baromi gyorsan. Ezzel igazából elég mobilis tud enni Nvidia akár csíkszélek között ha gond lenne, gondlom azért fejlesztették ki. Elég durva dolog ha igaz.
[link]Mondjuk ilyen hírek és IT tartalmú cikkek helyett olyan f@szságok jönnek Nvidia hírnek a PH-n hogy milyen jó a MH / s rátája a 3090 Ti-nekmeg hogy újra bejelentették a z elérhetőséget a 3000 szériának. mert Blikket tolunk és ezeket vesszük át a komoly oldalaktól . és kincs a heti 3-4 nvidia fika hír, ilyenek meg mennek a levesbe.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
-
FLATRONW
őstag
válasz
GeryFlash #37665 üzenetére
Az AMD-nek is van egy 375 W-ig eleresztett vizes kártyája, ami nem gyorsabb, mint a sima 3090. Az RDN 2 esetén már felesleges ennél nagyobb fogyasztást engedni, mert már nem hoz teljesítményt.
Ne felejtsük el, hogy az RDN 2 már egy eleve csiszolt 3.generaciós 7nm-re épül, ebből kb. kihozták a maximumot.
Ilyen szempontból nagyon szép, amit az NV kihozott a 8 nm-ből.
Az meg majd kiderül, hogy azonos gyártás mellett mire képesek. Ezek alapján szerintem is az NV lesz a jobb. -
huskydog17
addikt
válasz
GeryFlash #37665 üzenetére
"De, le van maradva."
Hol? Én a cikkben leírtakról beszélek."Ha most az AMD is kihozna ennyi tapasztalatszerzes + node csiszolgatas utan egy 450 wattos szart es leszabalyoznad 300-ra akkor meg az lenne a csucs energiahatekony."
Feltételezés. Ilyen nem történt meg és valószínűleg nem is fog már, de ha mégis jönne egy ilyen az RDNA 3 előtt és lesz arról is független teszt, akkor erre térjünk vissza, addig ennek a feltételezésnek semmi értelme."Ossze kell vetni a 3070TI perfomance es TDP-jet a 6800-zzal, van lemaradas."
De miért azokat vessem össze, amikor a linkelt cikk nem arról szól? Amúgy nem csoda, hiszen a 3070Ti agyon van hajtva, de a többletfogyasztás nagy része a GDDR6X-re váltás miatt történt. A 3070Ti-t amúgy én nem sorolnám a csúcskategóriába, főleg mert itt még a GA104-es GPU van jelen, nem pedig a GA102."De az biztos, hogy ha ugyanolyan nodeon keszulnenek akkor az Nvidia elverne az AMD-t."
Megint csak feltételezés, ez sem biztos. Node kérdésben annyit tudunk, hogy az Ampere generáció a Samsung első generációs 8nm-os node-ján készült, míg az RDNA2-es széria a TSMC optimalizált N7P node-ján, ami tekinthető a 3. generációs 7nm-es TSMC node-nak. Többek között ezért is lesz nagyon érdekes az új generáció mindkét oldalon, hiszen a jelenlegi információk szerint az új RTX gen is TSMC node-on fog készülni.E mellett érdemes figyelembe venni azt a szintén nem elhanyagolható tényt, hogy a két csúcs termék (Radeon RX 6900 vs. Geforce RTX 3090Ti) közül a 300 Wattos 3090Ti-on ugye a GDDR6X VRAM miatt jóval kevesebb fogyasztási keretet kap a GA102, mint a Navi21 az RX6900-on és ugye mindkét kártyán a két GPU teljes kiépítésű, egyik sincs vágva (GA102, Navi21).
A teszt arra mutat rá, hogy a két csúcs termék, illetve csúcs-GPU közül az Ampere nyújtja a jobb energiahatékonyságot, hiszen a teljes kiépítésű GA102 úgy gyorsabb és takarékosabb 300W környékén, mint a teljes értékű Navi21, hogy közben a VRAM miatt kisebb a GPU fogyasztási kerete is, aztán ugye a Navi elvileg jóval fejlettebb node-on készül.
Mindezeket figyelembe véve szerintem a legkisebb mértékben sem túlzás azt mondani, hogy az Ampere semmivel nincs lemaradva energiahatékonyság terén a felső és csúcskategóriában (GA102 vs Navi21).
[ Szerkesztve ]
-
válasz
GeryFlash #37665 üzenetére
A 3070 Ti egy utólag kihozott SKU... GA104 GPU párja a Navi 22 az eredeti 3070 hez nézve Átlagosan a 3070 5-11 %- kal gyorsabb felbontás függően és szögre annyit vagy kevesebbet eszik mint a 6700 XT. [link]
A 3070 Kb úgy van túlhúzva és mint ha egy 6700XT versenyezné egy 3080 nal... példának jó a 3070Ti és a 3090Ti de nem általános eset és az egész Ampere generációra igaz....
[ Szerkesztve ]
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- 7 GB/s felett olvasó M.2 SSD jött a Transcend színeiben
- Milyen videókártyát?
- Bemutatta az Apple az iPhone 16e-t
- Monster Hunter (gyűjtő topik) - PC/PS/XBOX/SWITCH
- Milyen notebookot vegyek?
- Mibe tegyem a megtakarításaimat?
- PROHARDVER! feedback: bugok, problémák, ötletek
- Samsung Galaxy S25 Ultra - titán keret, acélos teljesítmény
- Modding és elektronikai kérdések
- eBay
- További aktív témák...