-
IT café
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
X2N
őstag
Denoiser nélkül ennyi részlet van a képen, ha erre megy a denoiser az is elvesz részletet, ebből kell a "csudálatos AI-nak valamit generálnia" ami felér a natívval(mindez raszterben nincs):
Érdemes a képeket megnyitni nagyban és úgy megnézni. 4K mind.
[ Szerkesztve ]
-
Teasüti
nagyúr
Control az még vmi 1.x-et használ és saját implementációt. Nem tudom ki lehet-e cserélni alatta a fájlokat vagy az egyedi verzió miatti függőségbe belefagy-e, de én nem piszkáltam. De hozzá kell tennem, hogy nekem nulla panaszom volt a Control alatti DLSS-re. Inkább 2.0-3.0 közötti játékoknál voltak panaszaim a szellemképre.
Pl. Pacific Drive mikor kijött, az akkori DLSS verzióval a játékbéli képernyőkön durva artifact-ok voltak a temporális felskálázás miatt. Bár mondhatni korhűen szimulálta a CRT monitorokon a pixel "gerjedés" lecsengését.Illetve rémlik ez a beszélgetés CP2077-ről kicsit feljebb, de tegyük hozzá, hogy ez egy screenshot és mindenki pixel peep-el rajta. Ha belemerülsz a játékba, akkor nem fogsz pixel peep-elni. Persze az első fél órában megnéz az ember minden fűszálat, de ha utána nem tud beszippantani a játék akkor azzal nem is érdemes játszani.
[ Szerkesztve ]
-
-=RelakS=-
veterán
válasz
Teasüti #44691 üzenetére
Nekem 42"-on bevált
Legalább két játékban a DLSS felskálázás is bejött.
Eddig csak a wukong majomban láttam framegent, az is FSR, de ha nem azt néztem, ahol tudtam, hogy biztos ócska lesz, akkor az is meglepően jól nézett ki.
[ Szerkesztve ]
Itt streamelek játékot időnként: https://www.twitch.tv/relaks__
-
X2N
őstag
válasz
Teasüti #44694 üzenetére
2.0-t láttam Control,CP2077 alatt amíg volt ilyen kártyám(RTX2060). Az a baj vele hogy ez mindig azzal jár hogy akkor felskálázunk és megy rá az élsimítás. Nem lesz továbbra sem ilyen minősége mint ennek:
Magamat ismerve megmondanám hogy be-van-e kapcsolva. De ezért nem fogok most egy 4090-est venni. 4K RT DLSS-nélkül azt is megfekteti.Mosott a képe minden játéknak amiben van élsimítás. Ez a baj.
[ Szerkesztve ]
-
Teasüti
nagyúr
Láttál már DLLS 3.5-öt élőben?
A tévés szappanopera képinterpoláció egy muzeális technika ehhez képest.
Nézegettem összehasonlító videókat DLSS, FSR kapcsán, szóval nagyjából képben vagyok miféle artifact-ok szoktak előfordulni. DLSS 2-nél nekem még panaszom volt a temporális skálázás miatti szellemkép. Illetve 3.0-nál szar implementáció esetén az UI is szellemképesedett. De a mostani verziókkal én élő képen vesszek meg, de nem látok semmi nem oda illőt. Én nem tudom megmondani neked ABX teszten, hogy melyik a valós és melyik az FG render.4x részletesebb kép? Ez semmi?
Nézési távolságtól függ. Egy méterről a 32-es monitor nem tölti ki annyira a látómezőmet, mint mondjuk a 130"-os vászon 3 méterről. 1080p pixel helyesen kerül megjelenítésre rajta. Nem igazán tesz hozzá nekem az élményhez olyan hangyafasznyi részlet, amihez már nagyító kell. Persze ha pixel peep-elni szeret az ember 50 centiről, ahol már forgatni kell a fejemet a monitor egyik szélétől a másikig, az más dolog.[ Szerkesztve ]
-
Busterftw
nagyúr
-
X2N
őstag
válasz
Teasüti #44689 üzenetére
4x részletesebb kép? Ez semmi? Ha kisebb monitorod van, 24-27" akkor 182-165ppi ami miatt nem kell AA-t használnod? Ha felteszek jó minőségű 4K textúra modokat játékon belül még a padlón is látom a repedéseket olyan részletes a kép CP2077-nél. Fegyver távcső az nem recés kör alakú valami, hanem szép kör alakú. Windows 2x-es skálázással gyönyörű betűk? Ezt mobilon is látjátok milyen, ott is ~-480ppi-van. Nincs semmi baj a "mozgás felbontással" persze mindig lehetne jobb a pixel refresh time de oledet nem gyártanak csak 27-es méretben, nekem meg kisebb lenne jó ilyen felbontással, vagy ha nagy akkor 8K 32"...azt tökéletes lenne.
Ezzel szemben mi előnye van a képminőség szempontjából a FG-nek? Hogy minden második harmadik kép legyen egy hibás interpolált kép? Van az oled TV-n interpoláció, látom mit csinál mozgás közben a képpel, inkább kikapcsoltam, nem az én világom.[ Szerkesztve ]
-
Teasüti
nagyúr
válasz
-=RelakS=- #44690 üzenetére
Fura érvelési gyakorlat rögtön átesni a ló másik oldalára.
1080p és 4K közt nem látok eget verő különbséget 1 méterről.[ Szerkesztve ]
-
Teasüti
nagyúr
Mi értelme van 4K-ban játszani? Ezt kérdem úgy, hogy itt van előttem a 32-es 4K monitor.
Asztali munkánál, böngészésnél egy áldás. De mozgóképnél legyen az film vagy játék szerintem sokadlagos szempont a natív felbontás. A "mozgás felbontás" úgyis bezuhan olyan 480p szintre egy akciódúsabb jelenetnél. Persze ha statikus képre gerjed vki, akkor még talán megértem.Valamint mi a probléma a felskálázással és az FG-vel? Anélkül van 30 fps-em 4K* Ultrán, ezekkel meg van 90-100 fps-em és folyamatos játékélményem. Aztán a friss verziójú DLSS-nél meg már zavaró artifact sincsen. Mi az amit ne szeressek benne?
*Natív felbontást én speciel a fent leírtak ellenében azért használok mégis, mert az elmúlt pár évben megjelent játékok furán kezelik a teljes képernyős módot nem natív felbontáson. Sokan nem is hajlandók felbontást váltani a monitoron, csak a render felbontást veszik le. Akkor meg már inkább DLSS, mint TAA.
[ Szerkesztve ]
-
Itt a teszt.Nem véletlenül van így és van ott még pár kártya a 4090 kártyán kívül is pl 4070 is. [link]
Radeon használhatatlan magasabb felbontásban maximális RT vel, na nem mintha az Nvidia szenzációs lenne.
Csökenntei kell a minőséget hogy élvezhető legyen 4080 alatt és ez az egész lényege hogy minden játékban optimailzáció kérdése hogy elég lesz a vram vagy hogy hogy fut RT ben. Felesleges a hittérítés, mert mások a pirorítások.Outlaws is lés a Wukong is 2-3 hónap múlva lesz kész állapotban amikorra az egyiknél elég lesz a Vram a másiknál meg menni fog az RT, ennyi a sztori a mai játékiparban.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
-
hát igen újra immár harmadszor leírom, hogy van amikor kevés a vram ,soha nem írtam hogy elég mindenre , de ezért létezik a 4070 Ti super, a 4080 meg a 4090 meg a 4060 Ti 16 GB.. és most mit csináljunk ezzel? Ez Azokat aggasztja akinek AMD kártyájuk van mert aggódnak az Nvidia tulajokért valamiért. Kedves emberek.
Az AMD topikokban meg az Nvidiások aggódnak hogy miért megy ebben a z szenzációsan megalkotott Ubisoft játékban az AMD csúcskártyája rengeteg Vrammal az 600 dolláros 4070 super szintjén bekapcsolt RT vel vagy a másikban,a Wukongban ilyen remekül és miért olyan fos a z FSR minősége felskálázásban, a tű éles textúrákkal mi lesz így DE sebaj van ott a vram majd megoldja.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
eygértelmű, hogy 12 GB vram nem elég több játékban 4 K ra RT vel egy AMD-n sem, de ezt mindenki tudja, de ez miatt csak sokan nem fognak venni AMD kártyát mert rász..tak fejlesztés gyanánt + 4 GB vramot amiért szerinted azon nem kell felskálázni, ha kell akkor jó az FSR is bármilyen minőségű is, és natív 8 K ban 120 FPS-sel 3x körbehugyozza raszterben az Nvidiát valami másik dimenzióban.
Azon nem aggódsz hogy a 4070Ti super - 8 GB Vrammal kevesebb fogyasztással 200 dollár árelőnnyel gyorsabb mint a 7900XTX a képeden .Nem egyformák a priorítások és most szerintem be lehet fejelzni itt ebben a topikban az AMD hittérítést mert ezen változtatni nem tudunk, mindenki a saját értékrendje szerint dönt ebben a témában.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Jacek
veterán
válasz
Busterftw #44676 üzenetére
Na de ez nem egy.mod, plusz ott a very low is ott sem acelos.
Az hogy egy tragya a game mas kerdesDe ezt a vedjuk az nvidiat hovy mindenre eleg a 8gb hagyjuk mar.. nem azert ad ennyit mert sporolni akar hanem fele ido alatt avultatni akarja a kartyat
Kozben.megntolja az RT/ PT facomat is hogy egye a memot.. sajat kartyait fullaszja bele hogy vedd a kovwtkezot.
A fejlesztok meg a szaros 8 meg 12 gb kartyakra szenvednek...[ Szerkesztve ]
-
-
-
Jacek
veterán
Ertem en hogy eleg a 12gb mindenre is.
-
Abu85
HÁZIGAZDA
A Star Wars Outlaws motorja igazából jó. Az Avatar: Frontiers of Pandorához viszonyítva annyi a különbség, hogy nem ugyanazt a memóriamenedzsmentet használja. De maga a motor támogatja az Avatar-féle menedzsmentet is, csak nem aktív a Star Warsban. Ezért tűnik sokkal-sokkal rosszabbnak. Konkrétan a defragmentáció, ami hiányzik, amivel az Avatar nyert bő mínusz 4-5 GB-ot max. részletességen a VRAM terhelést tekintve. De a defragmentáció nem ingyenes, tehát a sebességet tekintve annak költsége van, és a Star Wars esetében úgy dönthettek, hogy inkább azt a plusz 3-5 fps-t választják, annak árán is, hogy a VRAM terhelés 4-5 GB-tal több lesz.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
-
-
"Ne hasonlítsd egy több éves használt kártya árát egy új kártyáéhoz. "
Miről beszélsz?
Igen teljesen nyílvánvaló, hogy magadat akarod igazolni, hogy jól döntöttél,de a 4080 nál aztána 16 GB nem problémás, Amúgy meg nincs ezzel gond mert :
'1 : Az Nvidia valóban fillér... a Vrammal egy két kártyán.
2. Az AMD lemaradásban van RT ben és a felskálázásban.
Mindkettőre van megoldás, hogy az első esetben kompromisszumot kötsz ha kell t textúrák teréna második esetben az RT terén. A felskálázás nehezebb dió..
A 7900XTX esetén számomra, ha nem jelentősen olcsóbb semmi nem szól mellette egy RTX 4080 mellett."A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Abu85
HÁZIGAZDA
Ja persze... de ez koncepció, fícsőr... igyekszik a rendszer a textúrarészletességet a VRAM-hoz igazítani, hogy ne fusson ki belőle. Aki nem szeretné, hogy a játék on-the-fly butítsa a textúrákat, vegyen 16-24 GB-os VGA-t.
Az a helyzet, hogy az se jobb módszer, ha a részletesség low-med-high skálán manuálisan konfigurálható. Ha 8-12 GB VRAM-od van, mindenképpen kompromisszumot kötsz, és nem biztos, hogy jobb kompromisszum az, hogy minden medium legyen, mint az, hogy a játék majd eldönti, hogy a high mellett melyik textúra lesz medium vagy low részletességű.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
X2N
őstag
A lényeg amit a videóban is magyaráztak hogy teljesen mindegy hogy mennyi memóriát allokál a játék, elfut 8-12GB-videómemórián is, de a játék már 1440p felbontáson elkezdi drasztikusan lebutítani a textúrákat, textúra beállítástól függetlenül(ami nincs is a játékban, nem lehet állítani). Látom mindenki megnézte a videót
Már a videón is látszik mennyivel rosszabbak a textúrák egy 12GB-os kártyán mint a 24GB-os 3090-esen.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
A VRAM az egy specifikus téma. Nyilván lehet olyan tartalommal elárasztani a játékot, vagy olyan RT eljárásokat írni, ami lezabál 12-16 GB VRAM-ot is. De ez nagyrészt döntés kérdése. Mellesleg ez a probléma elég egyszerűen kezelhető a textúrarészletesség csökkentésével.
#44655 D55 : Az csak szimplán egy parancslistás gond. Itt sokkal mélyebbek a kihasználtsági lyukak a hardverben. A legtöbb profilozó nem is mutatja, hogy vannak.
#44657 gV : Itt profilozót kellene ráereszteni, és ott lenne látható. De egyedül az RGP alkalmaz olyan módszert, ami jól kimutatja ezeket a kihasználtsági limiteket. Az RGP meg nem fut GeForce-on.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
X2N
őstag
Képzeld nem az RT miatt vettem.
Ne hasonlítsd egy több éves használt kártya árát egy új kártyáéhoz. Különben meg nagy felbontáson gyorsabb RT-ben mint a 4070Ti Super és több vram van rajta...még a 4080-nál is. Így fair összehasonlítani, az nvidia saját szponzorált címeben mit megy a konkurencia kártyája...
[ Szerkesztve ]
-
A videóból nekem nem igazán ez jött le+ kérdés a felbontás is.
Aki azt hiszi 2024 ben Pc-n kizárólag Ultra textúrákkal 4 K-n lehet játszanni annak sokal több videót kell megnéznie de ez is jó példa rá hisz megmutatják benne.
Mindíg a testreszabhatósáról szólt a PC. Nem nagyon tudok olyan játékot, ahol az Ultra helyett High textúra vagy árnyék nem megfelelő kompomisszumot és látványos minőségromlást hozott volna vagy jelentene abban az 1-2 játékban ahol manapság ez gond. Sokkal jobban dűhítene az ha a csúcs félmilliós Kártyám 24 GB vrammal a konkurencia 200 ezres kártyája körül kaparna RT ben és fos felskálázást adna.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
-
D55
aktív tag
Tényleg itt lesz a kutya elásva, mert annak idején a 3060 Ti-vel nekem nagyon látványos tudott sokszor bekapcsolt RT mellett lenni az, ahogyan a GPU kihasználtság RT off-hoz képest 99%-ról az alacsonyabb framerate ellenére leesik ilyen 60-70 köré, mint amikor az embernek CPU limitje van.
-
Abu85
HÁZIGAZDA
Nem a hardver miatt lassú, hanem a DXR miatt. Ezt hardverrel nem oldod meg, mert a limitáció az API-ban keletkezik. A hardver nagyrészt malmozik, mert nem lehet jól optimalizálni rá a bejárást. Egyszerűen látják a fejlesztők, hogy nem fut jól, de mivel zárt a specifikáció, így nem tudják, hogy hol keletkezik a limit. Nem látják. Következésképpen javítani sem tudják.
Látványos egyébként az új Star Warsban, hogy amelyik RT effekt compute shader bejárással van megoldva, az nagyon-nagyon gyors. Egyedül az a nagyon lassú, ami fixfunkciós bejárást használ, vagyis hozzányúl a hardveres részegységhez, és nem az ALU-kon fut ez a részfeladat. És logikus lenne azt várni, hogy az extra hardverelem miatt majd gyorsabb lesz, de pont az extra hardverelem miatt nem látják, hogy hol vannak a kódban a limitek, és ha azt nem látják, akkor nem tudják hol kell optimalizálni, hogy gyorsabban fusson. De ahol ezt meg tudják tenni, lásd a compute shader bejárást a többi RT effekten, ott nagyon is gyors a működés, mert nem feketedoboz-szerű a kód. Látják, hogy hol a limit, látják mit kell javítani, és javítják is.
Ezért írom egy ideje, hogy hiába várjátok az új hardvereket, a limitek a kódban vannak, a feketedoboz jellegű működésbe rejtve. Azt gyorsabb hardver nem oldja meg.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
gV
őstag
válasz
Busterftw #44647 üzenetére
majd jön a modi és dönt. ha kiadnak egy játékot RTXDI-vel akkor az aktuális generáció összes RTX kártyájának illene megbirkóznia vele. kategóriától függően 1080p-n az alsónak, 4K-n a felsőnek. ez így GF FX megismétlése, ami támogatta DX9-et a HL2 mégis csak DX8-on ment vele élvezhetően. az 5060 meg ~1 év mire jön, az rengeteg idő még, hogy megszaporodjanak a SW OL és Wukonghoz hasonló játékok.
[ Szerkesztve ]
-
76% of NVIDIA employees are millionaires btw
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
gV
őstag
válasz
Busterftw #44642 üzenetére
jó, hát volt mikor közel félévente jöttek TNT2->GF256->GF2. most akkor ez azt jelenti, hogy mikor ebből éltek meg akkor már ellustultak? inkább az egy természetes folyamat része volt (lásd még Intel tik-tok) viszont ez a mostani mivel AI lapkákból évente tudnak újítani -BW Ultra jövőre- nem.
az a pár hónap lehet fél év is.
nem volt igazi konkurenciája 2018-ban sem, még 1x: a játékok indokolják, hogy jöjjön a következő generáció a CB szerint 1080p-re nem elég már a 4060.
az meg, hogy őszi az RTX 20, nos a 8800 GTX és a GF256 is. lehet a mérföldkőnek számító kártyákat ősszel kell kiadniuk. -
Abu85
HÁZIGAZDA
válasz
Busterftw #44640 üzenetére
Igazából nagyon sok data center CPU létezik az AMD és az Intel mellett, szóval sosem volt egyedül az Intel. A gond az, hogy ha nem Intel CPU-t néznek, akkor AMD-t, mert arra nem kell átírni a szoftvereket. Tehát hiába van a fél tucat ARM alternatíva, egyelőre nem érdekes a piac nagy részének. Azok az ARM alternatívák terjednek, amelyek saját tervezésűek. Lásd Amazon, de ők ugye érdekeltek abban, hogy a saját hardverjeiket használják. És ezzel kifújt a dolog, mert ha nem saját hardver az ARM dizájn, akkor más cég nem igazán érdekelt az ARM-ban.
Egyébként, ha nem lenne EPYC, akkor simán érdekes lenne, mert azért számít, hogy 3-4 watt/maggal dolgozik az ARM, míg a Xeon inkább 7-8 watt/maggal. Viszont az AMD meg szintén 4 watt/mag körül ad egy rakás szálat, és így már nem érdekes az ARM, mert kb. 0,5-1 watt/mag előnyért nem fognak átírni egy rakás szoftvert. És akkor a Zen 5c 2-3 watt közötti működéséről nem is volt szó, amivel az AMD az ARM alá megy x86/AMD64-gyel. Nem igazán néz ki úgy, hogy az ARM a szerverpiacon nagy áttörést érhet el a közeljövőben, ha data center feladatokról van szó. HPC más téma, ott azért lehet keresnivalója. A Grace is inkább erre ment, és nem a data center felé. És valószínűleg a Grace utódja sem fog ezen változtatni, mert túl erős a Turin dense kiadása. Még akkor is nehéz lenne ellene versenyezni, ha jobb watt/mag mutatót hoznának, de az új Zen 5c az ARM magok alá megy itt. Emiatt az NV a data center CPU-piacra nem is igazán lő.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
S_x96x_S
addikt
válasz
Busterftw #44640 üzenetére
> az Nvidia is hasznal mar CPU-GPU megoldast, mar nincs az Intel egyedul.
CPU-t csak jövőre tervezi bedurrantani az nVidia,
( hogy most calendar(2025) vagy fiscal(2026) azt nem tudom )legalább lesz egy kis verseny.
Jensen Huang:
"And so, we have -- next year, we're going to ship a lot more CPUs than we've ever had in the history of our company, " ( forrás )"Every PC with RTX is an AI PC."
[ Szerkesztve ]
Mottó: "A verseny jó!"
-
Busterftw
nagyúr
-
Busterftw
nagyúr
válasz
S_x96x_S #44639 üzenetére
"szerintem az nVidia (várható - jövő évi ) 2025 Q2 eredményét hasonlítod"
Igaz ez inkabb a VS topikba illik jobban, szerintem nagyon is osszefugg es erdekes megjegyzes.
Kicsit realisabban mutatja be peldaul a nagy Epyc-Instict "hurrat" amit a media es az AMD kepvisel. Epyc ugye mar tobb eve piacvezeto megoldas, persze a direkt osszehasonlitas az Intellel fair, de mivel az Nvidia is hasznal mar CPU-GPU megoldast, mar nincs az Intel egyedul.Nvidianak pedig teljesen tokmindegy mar a Gaming kategoria, csak annyira nem tesznek ra, mint az AMD, ami tukrozi a bevetelt is.
[ Szerkesztve ]
-
S_x96x_S
addikt
válasz
Raymond #44638 üzenetére
köszi, igen , az a fiscal year mindig megtéveszt,
ettől függetlenül két különböző üzletág összehasonlításának nem sok értelme van.viszont Q3-ra van előrejelzés:
"NVIDIA's outlook for the third quarter of fiscal 2025 is as follows: Revenue is expected to be $32.5 billion, plus or minus 2%."[ Szerkesztve ]
Mottó: "A verseny jó!"
-
Raymond
félisten
válasz
S_x96x_S #44637 üzenetére
Jaysis, mar megint? Kismillioszor le lett irva:
NV FY2025 = 2024 Februar -> 2025 Januar
A tablazatban levo szamok a mostani Q2 (2025Q2) es a tavalyi Q2 (2024Q2) osszehasonlirasa.
Es az NV nem visional semmit hogy mi lesz a gaming-el jovore mert egyreszt ilyen elorejelzest nem csinal senki masreszt lasd feljebb.
[ Szerkesztve ]
Privat velemeny - keretik nem megkovezni...
-
S_x96x_S
addikt
válasz
Busterftw #44636 üzenetére
ami igazából érdekes,
hogy az nVidia
csak +16% jövedelem emelkedést tervez a gaming szektorban. jövő ilyenkorra,
és ebben a drágább TSMC-s gyártásl ( blackwell , 3nm ) költsége már benne van.> Brutalis, hogy az Nvidia Gaming bevetele koppra annyi, mint az AMD DataCenter
szerintem az nVidia (várható - jövő évi ) 2025 Q2 eredményét hasonlítod
az amd idei (2024Q2 ) - tényleges - adatával .. mert az kettő a 2.8B[ Szerkesztve ]
Mottó: "A verseny jó!"
-
S_x96x_S
addikt
válasz
yarsley #44634 üzenetére
valószínüleg elérte a csúcsot az árfolyam.
- extrém nagyok az elvárások az nVidia felé.
- és nem csak az nVidia esik."Vannak olyan elvárások, amiket már az Nvidia sem tud teljesíteni"
https://www.portfolio.hu/uzlet/20240829/vannak-olyan-elvarasok-amiket-mar-az-nvidia-sem-tud-teljesiteni-706417"Nvidia addresses significant Blackwell yield issues, production ramps in Q4"
"Hopper set to remain Nvidia's datacenter working horse for this year."
https://www.tomshardware.com/pc-components/gpus/nvidia-adresses-significant-blackwell-yield-issues-production-ramp-in-q4"Interview: Post-Earnings Insight With Nvidia CFO Colette Kress"
https://www.nextplatform.com/2024/08/28/in-depth-post-earnings-review-with-nvidia-cfo-colette-kress/[ Szerkesztve ]
Mottó: "A verseny jó!"
-
yarsley
aktív tag
válasz
huskydog17 #44633 üzenetére
Rekordbevételeket értek el, erre zuhant a részvény árfolyam vagy 8%-ot
De azért félelmetes hogy 9x bevételük volt data center eladásokból gaminghez képest, ami tavaly ilyenkor még csak 4x volt...
... ne úgy képzeld el, hogy te vagy Thomas azt mész amerre a sin visz. (c) virkir
-
huskydog17
addikt
NVIDIA Announces Financial Results for Second Quarter Fiscal 2025
2. negyedévben 30 milliárd dollár összbevétel
Ebből 26,3 milliárd az adatközpont és 2,9 milliárd a gaming, mindkettő növekedett.
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
S_x96x_S
addikt
"NVIDIA Blackwell Platform at Hot Chips 2024"
https://www.servethehome.com/nvidia-blackwell-platform-at-hot-chips-2024/
és a jövőbeli riválisok is bemutatkoztak.
- SambaNova SN40L RDU for Trillion Parameter AI Models
- Tenstorrent Blackhole and Metalium For Standalone AI Processing
- SK Hynix AI-Specific Computing Memory Solution AiMX-xPU at Hot Chips 2024
- IBM Telum II Processor and Spyre AI Updates at Hot Chips 2024Mottó: "A verseny jó!"
-
D55
aktív tag
válasz
KRoy19 #44628 üzenetére
Nem baj, rá kell állni ezekre a megnevezésekre:
NVIDIA GA 23H-6G-96
NVIDIA GA 48H-8GX-256
NVIDIA AD 16K-24GX-384Tök mindegy mit írnak a dobozra, ha csak így fog a vásárló teszteket találni (a szerződéses tesztekre is így kell átlinkelni + URL rövidítő használata és akkor semlegesítve vannak azokban is a nemkívánatos marketing nevek a Google működése miatt), kénytelenek lesznek ezt követni.
-
válasz
KRoy19 #44628 üzenetére
szerintem a kínai piac van ez mögött. Oda jó ez a 3050 is, csak az a gond, hogy ez hozzánk is bejön és kapható. Teljesen jogos amúgy a videó, örülök, hogy viszatért egy kicsit a régi Linus ebben.
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
KRoy19
őstag
válasz
Quadgame94 #44627 üzenetére
Komolyan nem értem amúgy én sem. Ömlik rájuk a pénz az AI piacról és ilyennel csóróskodnak.Biztos összeültek, hogy majd jól megszedik magukat a low end vga piacon, ha 3050-ként adnak ki egy kártyát, aminek 3040-nek kellett volna lennie. Tényleg szánalmas
-
X2N
őstag
válasz
Quadgame94 #44624 üzenetére
Az érthető hogy ha mondjuk összegyűlik bizonyos mennyiségű selejt és akkor az eltérő busz szélesség miatt másfajta memória konfigurációval piacra dobják, de ne ugyanazon a néven tegyék...mert ez a vásárlók átverése és hülyének nézése.
Ahogy a termékpaletta lejjebb csúsztatása is amit megléptek a 40-es szériával.[ Szerkesztve ]
-
gainwardgs
veterán
válasz
Quadgame94 #44624 üzenetére
Azigen
-
Quadgame94
őstag
Eléggé szomorú, hogy még mindig csinálják ezeket. Őszintén nem értem miért van erre szükség. Annyira szánalmas egy ekkora cégtől az ilyen lépés.
-
S_x96x_S
addikt
"NVIDIA GeForce RTX 5060 “Laptop” GPU To Consume Lower Power Than Ada, Features GDDR7 & RTX 4070-Level Performance"
https://wccftech.com/nvidia-geforce-rtx-5060-laptop-gpu-lower-power-than-ada-gddr7-rtx-4070-performance/Mottó: "A verseny jó!"
-
Teasüti
nagyúr
válasz
szkutyi #44613 üzenetére
Ezek ilyenek. 4070-esen is van kb 16 fok eltérés hotspot-ra vízhűtéssel...
Háromszor lett összerakva, kétszer variáltam át a pad-okat és garantáltan érintkezik a GPU a blokkal. Friss paszta, friss build. Előtte 3060-ason is volt kb ennyi eltérés hotspot-ra gyári léggel. El kell engedni. Amíg nincs thermal throttling, addig nem probléma.
Mondjuk 104 közelében már feltehetőleg lesz fojtás. Ezt mondjuk egy HWinfo64 meg tudja mondani, hogy volt-e fojtás játék közben.
Furmark-kal meg nem kell foglalkozni - ha esetleg ezt azzal sikerült -, olyat játéktól sose fogsz látni még 99%-on sem.[ Szerkesztve ]
-
szkutyi
addikt
Sziasztok!
Van egy Nvidia 1660super kartyám. [kép]
Újra pasztáztam a gap-padokat megforditottam, új most nincs nálam..terhelve a GPU proci 80-85 fok. Viszont a hotspot 104fokig is fel megy...mit lehetne tenni.? A hűtése 3000el forog ilyenkor persze..Vadi új gap pad megoldja?köszi
-
X2N
őstag
"225 watts are theoretically possible via the PCI Express port."
Tetszik hogy úgy gondolják ki is fogják próbálni.
Meglep hogy nem az ASUS lépte meg. Már várom a leégett PCI-E csatlakozós híreket. Volt régebben hír AMD kártyákról amik a standard 75W helyett ~150W-ot vettek fel az alaplapi csatlakozóból és az szétégett...pc ipar én így szeretlek, megy visszafejlődés...
[ Szerkesztve ]
-
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
X2N
őstag
Belőlem a régi Mac Pro 2016 váltott ki hasonló reakciót amikor láttam. Ilyen pc házat ma miért nem lehet csinálni ITX alaplaphoz, ami kör alakú, viszont azon belül lenne egy háromszög keret amire az alaplap lenne rögzítve lefele a csatlakozókkal, egy rövid riserrel a mellette levő oldalon a gpu, a harmadik oldalon meg a táp lenne rögzítve.
[ Szerkesztve ]
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Gyúrósok ide!
- Energiaital topic
- Kerékpárosok, bringások ide!
- Sony MILC fényképezőgépcsalád
- Google Pixel topik
- Renault, Dacia topik
- NVIDIA GeForce RTX 5080 / 5090 (GB203 / 202)
- CADA, Polymobil, és más építőkockák
- Nvidia GPU-k jövője - amit tudni vélünk
- A fociról könnyedén, egy baráti társaságban
- További aktív témák...
Állásajánlatok
Cég: Marketing Budget
Város: Budapest