-
IT café
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
válasz
szmörlock007 #46717 üzenetére
-
Devid_81
félisten
válasz
szmörlock007 #45478 üzenetére
Pedig az 1080p az sz@r hiaba az egesz.
En ezt mar masik topikban is megkaptam amugy, pixeles, homalyos a dlss sem segit mert csak csunya lesz a kep, de eleve csunya mert 1080p es kesz, uljek le egyesEs mindekozben egy RTX 4060 Ti ereju kartyaval mindennel is lehet jatszani ultra beallitasokkal es meg egy kis RT is mehet, vagy ha nagyon kell az ero akkor 4070 es evekre jo a user es meg a 12GB vram sem lesz korlatozo tenyezo.
Mindegy nem akarok errol offolni, nekem tokeletesen megfelel amire kell, kis penz kis foci
-
PuMbA
titán
válasz
szmörlock007 #45478 üzenetére
Láthatod úgy, de ahogy írtam ez így önmagában semmit se bizonyít
2008-ban volt egy felmérés Angliában, hogy az emberek 35%-a nem látja az SD és HD felbontás közötti különbséget, mert távolról nézik a TV-t és szemvizsgálaton se voltak már évek óta.
[ Szerkesztve ]
-
X2N
őstag
válasz
szmörlock007 #45327 üzenetére
Fejezd már be, azért mert nem értesz hozzá még nem kell osztani az észt, nézd már meg mennyivel több textúrát használunk a PBR miatt és ezek mindegyike legalább 4x nagyobb felbontású mint régen. Csak a videokártya memóriája ezt nem követte le...
[ Szerkesztve ]
-
S_x96x_S
addikt
válasz
szmörlock007 #45323 üzenetére
> Ez olyan mintha valaki amiatt károgna
> hogy a 16 gigába neki nem fér bele az AI modell.
> A Geforce vonal az gamingre van,Az már nem teljesen igaz.
Jensen : "all the RTX gaming PCs - they now become an AI PC."
( via )""""
Q: What is NVIDIA’s strategy for AI PC this year? Will NVIDIA consider launching an NPU in the future?
A: We started working on AIPC nine years ago when we launched RTX. This year we launched digital humans for gaming, and the API is called ACE. You can put digital humans in your game, and you can have a digital human in the computer helping you play the game. That’s our G-Assist tool. Everything we worked on for RTX will work for AI now, almost a decade in the making.Q: Will we see new chips from NVIDIA that support the new Copilot features?
A: Microsoft has announced that RTX architecture products will support the Copilot runtime."
""" -
X2N
őstag
válasz
szmörlock007 #45323 üzenetére
Persze mert a 48GB-os NVIDIA Quadro RTX 8000-ak a fán nőnek, de ha kettőt szeretnék a sebesség miatt akkor azt majd ennek az árát zsebből simán előhúzom. Mellesleg nincs szükségem az ECC vram-ra amit ezek a kártyák tudnak, se a szoftveres körítésre... 12GB-os kártyát már 10 éve lehetett venni. Még most is ott tartunk hogy ezt se sikerült megduplázni egy átlag kártyán...
[ Szerkesztve ]
-
FLATRONW
őstag
válasz
szmörlock007 #44880 üzenetére
Nagyon helyes.
-
X2N
őstag
válasz
szmörlock007 #44880 üzenetére
Pénzt vagy életet
-
X2N
őstag
válasz
szmörlock007 #44520 üzenetére
Akkor ne csináljanak ekkora komplex játékokat azt tudom mondani. Nem kell túlvállalni magukat. A Witcher 3 is már túlzás volt az 50+ óra játékidejével amit a játékosok nagy többsége végig se játszott, meg hatalmas bejárható területével. Semmi baj nem lesz belőle ha legy egy jó 20-30 óra játékidő...bőven jó, mint a Mass Efect 2. részénél.
[ Szerkesztve ]
-
válasz
szmörlock007 #42885 üzenetére
Az öreg nem véletlenül ment oda ez mellett.
[link]
"We reported yesterday about the visit of Jensen Huang to Beijing, where he not only took part in festivities associated with Beijing New Year but reportedly held meetings with several Chinese clients, such as Alibaba and Tencent, to assure them that NVIDIA is here to stay."
"It is now being disclosed that apparently after the visit to China, Jensen Huang also decided to go to Taiwan, where he visited the firm's key suppliers such as TSMC and Wistron, to see the progress on mass manufacturing of the company's next-gen H200 and B100 AI GPUs. "
NVIDIA Blackwell B100 GPUs To More Than Double The Performance of Hopper H200 GPUs In 2024 -
Devid_81
félisten
válasz
szmörlock007 #42885 üzenetére
Vagy ez, foleg az arca...vagyok azok ott a hatterben
[ Szerkesztve ]
-
Raymond
titán
válasz
szmörlock007 #42885 üzenetére
Mondjuk van miert tancolni neki, iden csak a Meta/Facebook-tol lesz 10 milliard bevetel.
-
spect80
senior tag
válasz
szmörlock007 #42736 üzenetére
kérdés, hogy fele akkora hőelvezető közeggel mennyire tud csendes maradni ez a kártya.
#42735 b. én is így jártan a régi lappal, csak 1Gbitet akartam 2.5re bővíteni, nem sikerült.
#42738 D55 4070TI-vel jó lehet, de a 3,65 helyet foglaló vga esetén a közvetlenül alatta lévő PCI-e slotot el is lehet felejteni. En belefutottam ebbe egy 4080 és egy SB hangkártyával. Ha a VGAhoz közeli slotba tettem, lefogta a vga hűtését, ha az alsóba, akkor a kilógó műveleti erősítő belelógott a táp burkolatba és nem fért el.
#42746 hahakocka nem rosszak ezek a minipc-k csak általános felhasználásra overkill, játékra meg gyenge és/vagy felforrnak.
-
PuMbA
titán
válasz
szmörlock007 #42599 üzenetére
RTX5090 2 milla. Fél év múlva jön az RTX5080 1,2 milláért, 1-1,5 év múlva jön a RTX5070 600-800-ért és 5060 300k-ért
Valaki jegyezze meg ezt a megjelenésig...
[ Szerkesztve ]
-
válasz
szmörlock007 #42593 üzenetére
Igen ,mindegyik GPU többször lement, csak a 4090 emelkedett. A 4080 is volt 1000 alatt 929
DE valószínűleg hivatalosan is le kell hogy vigyék ha a 4070 super 599 lesz . Ha leviszik 550 re akkor valószínűleg lesz 500 alatt is , a 4060 Ti 16 GB meg 450 körül.
Persze ez még mindíg nem hivatalos csak egy nagyon megbízható forrás által közölt pletyka.[ Szerkesztve ]
-
válasz
szmörlock007 #41819 üzenetére
Ami érdekes a cikkben a GloFo, hogy rágyúrtak a fejlesztésre.
Pár cikket találtam igaz érdekes nyelven, de egész jól állnak és nem hogy versenyképesek lesznek vele, hanem pár dologban állítólag előremutató lesz. Talán visszakapcsolódhatnak nagyok közé, ha sikerül.[ Szerkesztve ]
-
válasz
szmörlock007 #41744 üzenetére
Szerintem nem lesz meg a Ps5 de mindenképpen nagy előrelépés lesz.
Hihetetlen mit hoztak ki a Switchből a japók ráadául Unreal is támogatja majd . Szerintem ha csak valahol az Xbox S és X között lesz akkor már várhatóak nagyon szép játékok. Sztem nem is az NVidia érdeme lesz ez, inkábba Nintendo. Ők még a régi idők iskolájába jártak, nem kell több giga patch egy játékhoz amit kiadnak rá. Zelda például mestermű a maga nemében és mindez egy telefon hardverén. -
válasz
szmörlock007 #41742 üzenetére
[link]Innen pár perccel korábbról :
"
NVIDIA's hardware has had an edge over AMD in terms of ray tracing capabilities so the Nintendo Switch 2, despite being a handheld, is said to be very close to the Sony PS5 in terms of RT graphics performance."[ Szerkesztve ]
-
válasz
szmörlock007 #36186 üzenetére
Szerintem: (természetesen csak tippelek. )
Lehetséges a 2 architektúra, egy professzionális ( MCM ) és egy Geforce( monlitikus )
De úgy gondolom, hogy az Ada egy Ampere továbbfejlesztés lesz, valószínűleg olcsóban kihozható és kísérleti funkciókat fog tartalmazni, mint pl az Infinity cache az RDNA 2 ben , a kisebb nanóra történő átállás stb... . Mint írja kimi is, a sávszél problémája terheli mindkét gyártót,de valószínűleg AMD nél erre ha nem is teljes, de alapozó megoldás lehet az IF. plusz a jelenlegi 7 nm is kevés lehet hozzá, az 5 nm vagy kisebb csíkszél ( gondolom én) szükséges.
Nvidia még mindig a Samsungnál 8 nm-n van ami se nem kis csíkszél és Samsungnak az Ampere az első tapasztalata ilyen nagy GPU-k gyártásában ez azért meglátszik fogyasztásban és órajelben. Azt gondolom Nvidiának( és talán AMD nek is) mindenképpen szükséges egy átmeneti dizájn és gyártás az MCM megalapozására, de ha minden kötél szakad és AMD nek nagyon durva lesz az RDNA 3 és kell akkor kiadják anélkül is. Már ha igaz ez a pletyka.[ Szerkesztve ]
-
Peat;)
veterán
válasz
szmörlock007 #35792 üzenetére
Nem az aktuális profit függvénye egy felvásárlás, korábbi években sem a mélyszegénység jellemezte nvidiát. Pénzeszközük van bőven gyaníthatóan és egy investment loan sem ördögtől való dolog. Nem a megvétel okozna problémát, inkább amit írtak, nem jó ha minden egy cég kezében van, mi szívjuk meg idővel.
-
Busterftw
nagyúr
válasz
szmörlock007 #35792 üzenetére
Nyilvan nem rovidtavu celjaik vannak az ARM-al, szoval 4-5 ev es megterulhet, foleg ha folyamatosan novekszik a bevetel is.
-
TESCO-Zsömle
félisten
válasz
szmörlock007 #32745 üzenetére
Cseszheted, ha nem eszi a Quadro driver-t, egy csomó funkciótól elesel...
-
TESCO-Zsömle
félisten
válasz
szmörlock007 #32743 üzenetére
Azt hittem, játékos kártyákról van szó.
Csak rá akartam mutatni, hogy a 2080 Ti 1200$-os kezdőjétől az 1500$ már nem akkor nyújtózás, mint anno a 2500$ volt. És azt is vették. -
TESCO-Zsömle
félisten
válasz
szmörlock007 #32735 üzenetére
Öhm... Helllowww...
-
válasz
szmörlock007 #30380 üzenetére
na ez jó dolog. IO -t megkapja Turing is, DLSS is fejlődik rajt.
-
JóképűIdegen
tag
válasz
szmörlock007 #30369 üzenetére
Jah, mire "most" megjon a csucs, marcsak ismet kozepkategoria lesz
-
do3om
addikt
válasz
szmörlock007 #30369 üzenetére
Egyesek meg úgy hiszik hogy ha akart volna sem lett volna képes többet kihozni belőle.
Mert ugye azt mondod direkt nem akartak versenyt és jobb kártyát .... biztos így volt. -
-
gV
őstag
válasz
szmörlock007 #29713 üzenetére
Ampere 2x32fp Turing 1x32fp [link]
-
válasz
szmörlock007 #27524 üzenetére
Amúgy igen, értem mit írsz , csak a méret alapján nem lehet beazonosítani a kártyák teljesítményét mert AMD nek az 5700 XT nem tartalmaz RT gyorsítót. tehát ha simán 2x szorzunk akkor még nincs meg a dedikált RT hadver 505 mm2 -n
A Turing így nézne ki durván számolva RT magok nélkül mm2 ben:
TU102 : 754 /684
TU104 : 545 /498
TU106 : 445/410Ehhez hozzá lehet számolni, hogy az új Ampere kb dupla mennyiségű RT számolót fog tartalmazni, sőt ennél többet ha igaz amit írnak. Tehát a Turing kb 10 % helyet áldozott az RT miatt , az Ampere kb 15-20 % nál fog megállni. Ha így nézzük a RDNA2 nél 505 mm2 ből levonható kb 60-70 mm2 az RT feldolgozók miatt,amennyiben hasonlóan oldják meg , mint a zöldek.
[ Szerkesztve ]
-
válasz
szmörlock007 #27541 üzenetére
és akkor itt jön szóba az amit írtam 2018 ban [link] és nem rég : [link]
A dupla PCB miatt lehet ez a keret megadva,. RT nélkül lehet hogy a különálló coprocesszor nem is aktív és a fogyasztás is alacsonyabb jóval.Innentől egy vagy lépés lehet az hogy különálló RT gyorsítót adjanak ki a VGA-k mellé.Mondjuk biztos, hogy az adatmozgatás kritikus tényező lenne, NV link nem tudom mennyire tudná megoldani ezt a feladatot.
[ Szerkesztve ]
-
Dyingsoul
veterán
válasz
szmörlock007 #27541 üzenetére
Minél több ilyet olvasok annál inkább hajlok a konzolok felé. Egy vagyonba fog kerülni ez a kártya. Mondanám, hogy remélem csak a 3090-be lesz ilyen de az eddigi leakelt kártyák oldalára 3080 címke volt ragasztva.
-
JóképűIdegen
tag
válasz
szmörlock007 #27542 üzenetére
A 200w csak ironia volt reflaktalva az irrealis elvarasokra
Egy dolog azonban tenyleg igeretes, az hogy kicsit felkavarodik az alloviz osszel. -
Yutani
nagyúr
válasz
szmörlock007 #27509 üzenetére
The information comes from Igor, who has been an incredibly reliable source of leaks in the past and we have also independently confirmed the same.
Eléggé magabiztos, hogy ez valós, máshonnan is meg lett erősítve. Ha végigolvasod a kommenteket, van, aki úgy vélekedik, hogy azért dobják a Titan nevet, mert a Big Navi ütni fogja ezt a szintet, ezért ne a Titan név veszítse el a presztízsét. Ugyanakkor van, aki még e fölé várja a Titant. De azt meg hogy, ha a flagship GPU-t elhasználják a 3090-en? Csak úgy, ha a 3090-en nem teljes értékű, viszont akkor a Titan TGP-je mekkora lesz?Érdekes ősz elé nézünk, az biztos.
-
Pipó
őstag
válasz
szmörlock007 #27509 üzenetére
Még mindig ez a gddr6x, ami abu szerint nem is lehet.
-
válasz
szmörlock007 #27509 üzenetére
Igen írja is hogy igor leakje alapján van a hír , amiről feljebb szó volt de ezek szerint a TGP 350 W nem a TDP.
A GPU TDP 230 W. -
Abu85
HÁZIGAZDA
válasz
szmörlock007 #27479 üzenetére
Az nem ilyen egyszerű. Attól, hogy van DX12 ultimate, még nem biztos, hogy egy olyan fejlesztésnél megéri ráugrani, ami idén jelenik meg. Ha ezt nem tervezték be előre, akkor nem nagyon lesz ilyen.
-
válasz
szmörlock007 #27473 üzenetére
legyen így ahogy írod én azt mondom, mert akkor lesz valamicske konkurencia harc és a végén nem egy 3050 kártyát tudok már megvenni 500 dolláros áron , hanem akár egy 3050 Ti-t is
Én azért úgy gondolkodom,hogy nem tudjuk mit rejt önmagában az Ampere GPU gaming verzióban. Az A100 egy gépi tanulásra kihegyezett tenzor magokkal telerakott architekt, nem mérvadó sem fogyasztásban sem teljesítményben sem felépítésben egy játékos kártyához.
A Vega 64 TFLOPS alapján gyorsabb volt kb 5 % kal mint az 1080 Ti prsze tudom, az még nem volt különválasztott fejlesztés.
Sokat fog számítani valójában az Nvidia mit fejlesztett a Turinghoz képest a csíkszél váltáson kívül ,mert egy átalakított újított architektúráról beszélünk, hisz nem csak az RDNA 2 jön újként .Egyébként visszakanyarodva a fogyasztáshoz, az Én 2070 karim( nem egyedi) 2050 MHz ra képest felboostolni az órajelét 445 mm² kiterjedéssel 12 nm gyártáson gyártva, szóval azért is kételkedem a TDP ben, még ha az Nvidia szerint akár 2500 MHz re is képes lesz felboostolni az Ampere.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz
szmörlock007 #27473 üzenetére
Az egyszeri dolog volt. Az RDNA2-nél a TFLOPS nem ér majd többet, mint az RDNA-nál. A különbség annyi lesz, hogy az RDNA2 jóval nagyobb órajeleken lesz képes üzemelni. Itt jön elő az, hogy 50%-ot javult a perf/watt.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz
szmörlock007 #27467 üzenetére
A legtöbb feladatra elég az, de persze lesznek olyan helyzetek, ahol kevés, viszont ez minden GPU-ra igaz.
-
válasz
szmörlock007 #27464 üzenetére
persze, csak ugye a beharangozása volt 2080 Ti killer anno, ezért hívtam így. [link]
Igen az Amperevel kell versenyeznie,de nem hinném hogy rettegnek a zöldek mert szembe kell nézniük az RDNA 2 vel aztán ki tudja.Mindegy az, ugye így terjedt ela Poor Volta is anno...
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz
szmörlock007 #27462 üzenetére
Nem hiszem. A gyártók arra törekednek mindig, hogy a lehető legjobb teljesítményt hozzák ki. Az NVIDIA is tudja, hogy nagyjából 22 TFLOPS-szal kell majd szembenézniük, de ez alapvetően nem változtat azon, hogy a lehető legjobbat akarják hozni a maguk részéről. Vagy elég lesz, vagy nem. Utóbbi esetben, rövidebb távon nem tehetnek semmit.
(#27463) b. : Annyira azért nem titok az RDNA2 csúcsmodellje. Nagyon régóta ismertek a partneri körökben a tervezett paraméterek, és ha ezeket én megszereztem, akkor megszerezte már az NVIDIA is. Tehát effektíve egy olyan hardver ellen kell terméket kiadniuk, ami nagyjából két Navi 10 teljesítményével ér fel, és nem 2 GHz alatt, hanem 2,3 GHz környékén működik. Ez alapján eléggé jól be tudják lőni, hogy mit kapnak a nyakukba. +/-10% pontossággal tudják ezt már, és valószínűleg erre tervezik a top rendszerüket.
[ Szerkesztve ]
-
Yutani
nagyúr
válasz
szmörlock007 #27452 üzenetére
Akkor fog 250W-ot enni, ha ott hozza a szükséges teljesítményt. Ha nem, meg kell tekerni, mint ahogy az AMD is kifacsarja szinte az utolsó MHz-et is a fogyasztás rovására.
-
Busterftw
nagyúr
válasz
szmörlock007 #27452 üzenetére
Biztos mar amugy a 7nm TSMC pl egy 3080-nek?
-
válasz
szmörlock007 #27223 üzenetére
Az NVcache HBC szerű megoldásához kell licensz amit rebesgetnek, arra értettem. Ha az SSD-t eléri az Ampere akkor már rátehetik akár arra is. Ehhez egyébként Nvidiának ez is a lehetséges megoldás. [GPUDirect Storage: A Direct Path Between Storage and GPU Memory]
[ Szerkesztve ]
-
válasz
szmörlock007 #27220 üzenetére
Simán elkepzelheto megoldás, de az érdekesebb a geforce vonal/x86-64/windows /dx12mert elméletileg licensz nélkül ezt nem tudnak megoldani. Lehet, hogy vettek/kaptak? Ki tudja?
Professzionális szegmensben ez megoldhato. -
Dyingsoul
veterán
válasz
szmörlock007 #27188 üzenetére
Azok a kommentek a cikk alatt.
Te jó ég mekkorát fordult a világ. Mindenki az Intelt szidja milyen sz@r.
-
Dyingsoul
veterán
válasz
szmörlock007 #27088 üzenetére
Nem úgy mondja. Írta, hogy ez az ő véleménye. Részemről le is zártam a dolgot.
Más:
Ha minden igaz május 14-én, csütörtökön mi időnk szerint 15:00-kor tart a tajvani batman előadást az NV youtube csatornáján. Én már beállítottam az emlékeztetőt, remélem a meló közben lesz annyi időm, hogy belelessek.Ártippelések a részemről (függetlenül attól, hogy a 3080 Ti-t bejelentik-e és ez természetesen az MSRP):
3080 Ti: 999$
3080: 649$-699$
3070: 500-549$Ez és ez alapján gondolom így. Szerintem valahol a kettő között lesz: Oda nem térünk vissza amennyiért a Pascal kártyákat adták, azoktól drágább lesz a launch price. A Turing viszont fel lett fújva, ezt a Super széria launch price-a is mutatja (meg az amúgy sem volt egy nagy újítás). Viszont új architektúra, ezért nem fognak nagyon alávágni az áraknak, csak egy kicsit. Így be is bizonyosodhat az a leak, hogy olcsóbbak lesznek ezek az új kártyák, mint a 2000-res széria volt a nyitásakor. Viszont nem fogják annyiért adni, mint anno a Pascalt, az emberek már úgyis elfelejtették, hogy anno mennyiért is szórták az új archot. Venni fogják, mint a cukrot!
[ Szerkesztve ]
-
Jacek
veterán
válasz
szmörlock007 #27085 üzenetére
Azok is lesznek, nem véletlen a ampere Q3, bignavi Q4 és a Ti is Q4.
Tudom mi volt régen csak most most van[ Szerkesztve ]
-
válasz
szmörlock007 #27039 üzenetére
van még egy nagyon jó vagy fontos dolog:
" A speculated potential overhaul of the software stack that will now integrate both the GeForce Experience and GeForce Control Panel is also on the anvil. "
jön új szoftver is ezek szerint. Már ha igaz. -
paprobert
őstag
válasz
szmörlock007 #26850 üzenetére
Arra a kérdésre, hogy lesz-e NV CPU a jövőben:
"You know, I have got no trouble working with other people’s technologies so long as in doing so, we could make that unique contribution that moves the world forward. And it’s something that the people on the conference call from Nvidia hears me say all the time: We have got to not squander our incredible time and resource and expertise, and not do something that somebody else already has, with the singular purpose of taking share. Taking share is not nearly as constructive to the world as creating something that’s new. And I prefer not to squander our resources if possible."
[ Szerkesztve ]
-
Atom_Anti
senior tag
válasz
szmörlock007 #26809 üzenetére
Ampere fog bemutatkozni. CPU bottleneck miatt mért nem aggódtok? Régen mindig az volt a téma, pedig ma aktuálisabb mert arányiban az elmúlt 15 évben a GPU -k sokkal többet gyorsultak mint a CPU-k.
-
Abu85
HÁZIGAZDA
válasz
szmörlock007 #26673 üzenetére
Bizonyosan meglett volna az inline raytracing, de ettől a DXR 1.0 így is előnyös volt, mert hiába rossz a hatásfoka a dynamic shader raytracingnek, akkor is egy rakás tapasztalatot lehetett vele gyűjteni. Az inline raytracing ugyan hatékonyabb, de az effekt dizájnja szempontjából a kérdések ugyanazok, és ez sem egyértelmű ám.
-
-
Abu85
HÁZIGAZDA
válasz
szmörlock007 #26667 üzenetére
Pontosan nem tudni, de a Microsoft a DXR 1.1-et már támogatni fogja. A DXR 1.0-t azért hanyagolták, mert nem ők tervezték. Nem is foglalkoztak igazából a támogatásával. Ezért alakulhatott ki az a furcsaság, hogy a Microsoft hozott egy API-t, de külső fejlesztők hozzák a játékokat rá.
(#26669) Jacek:
[ Szerkesztve ]
-
válasz
szmörlock007 #26664 üzenetére
Most leírod azt amit Abu írt?szerinted vele min vitatkozok?
Nem kell implementációt írni, ezt csak Abu állítja. A DXR1.1 a z Nvidia és úgy kb a világsajtó szerint natívan támogatott a Turing architektúrán.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz
szmörlock007 #26664 üzenetére
Ezt írtam, jól értelmezed.
Csak a Tiger Lake-ről van pár adat, de nem ugyanazt a dizájnt kapja a dedikált GPU. Eléggé hasonló amúgy a felépítése a mostani dizájnokhoz.
[ Szerkesztve ]
-
Jacek
veterán
válasz
szmörlock007 #26637 üzenetére
Kicsit olyan mintha az NV az AMD cipőjébe lépett volna ezzel a RT-vel, hődejó aztán mire mindenki használja teljesen más van
-
válasz
szmörlock007 #25973 üzenetére
"We will always have something for you in the future, but we like to surprise everybody with our overall roadmaps and when things come out. "
nemsokára itt a CES kíváncsian várom
-
paprobert
őstag
válasz
szmörlock007 #25973 üzenetére
Az Nvidia most nagyon sok mindenben a változás jelét mutatja, előre menekülnek minden szempontból.
ARM felé nyitás, Linuxos driver nyitásának a megszellőztetése, a jobb 7nm-es gyártástech bevetése.
Mintha észrevették volna annak a veszélyét, hogy rövid időn belül kikerülhetővé válnak a legtöbb szegmensben, és a csak fél gázzal való termékfejlesztés nem lesz elég.
Így még csírájában akarják megfojtani a konkurenciát, azzal, hogy kimagaslóan jó termékeket és supportot biztosítanak, hogy még véletlenül se jusson eszébe senkinek vendort váltani.Ennek örülni lehet, mert ez a tendencia idővel leszivárog majd a konzumer vonalba is.
[ Szerkesztve ]
-
válasz
szmörlock007 #25971 üzenetére
Hátha érdekel
: [link]
Az nem gond, inkább az ahogy Musk ezt előadta és hogy lerántotta/ lealázta azt a partnerét ,akivel együtt dolgoztak évek óta és eljutott eddig.
Volt olyan nyilatkozata, ahol erre fogta a problémákat amik körülvették az akkori tőzsde bezuhanást satöbbi, de persze az mellékes maradt, hogy a Tesla 3 már 1-2 éves korában rozsdásodik és illesztési összeszerelési hibákkal küzd.
Egyértelmű, hogy egy célhardverrel nehéz versenyezni ,mert az kifejezetten a saját igényeinek készül és arra van optimalizálva,de a problémát Musk a fogyasztásban látta elsősorban.
Most az előzetes beharangozók szerint Nvidia messze túlszárnyalja a célspecifikus megoldást. Innentől Musknak megint fejlesztenie kell egy olyan hardvert ami felveszi a versenyt ezzel, ami költséges és ez folyamatosan frissítést és optimalizálást igényel.
Ez mind megoldható egész addig, amíg az általa gyártott célhardver kompetens az Nvidiáéval, mert ahogy ez nem történik meg az Nvidia partnerei és a Tesla konkurensei messze jobb önvezető rendszert fognak kapni még ha nem is rájuk optimalizálva 100 % ig, mint a Tesla. azaz ez egy kockázatos lépés.
Jelenleg a Volvo teljesen leállította a saját hardveres fejlesztéseit pont ez miatt és az Nvidával kötött hosszú távú megbízást ami Musk szempontjából egy külön fricska mert a Skandinávok a fő vevői a Teslának és természetesen Volvónak. Az mellett ugye a zöldek több német konkurenst is megnyertek maguknak. Az Audi A8 több szempontból fejlettebb már most mint a Tesla, csak persze abban van egy benzinmotort, nem számít a fogyasztás.[ Szerkesztve ]
-
válasz
szmörlock007 #25969 üzenetére
Hát akkor ezzel Musk tehet egy szívességet az nvidiának
-
válasz
szmörlock007 #25953 üzenetére
Félek a meglepetés az árazásra fog vonatkozni. És nem a vásárlóknak kedvező irányba...
-
-
válasz
szmörlock007 #24435 üzenetére
Igen szerintem is ilyesmit mutatnak be először. Összehasonlításra jó lesz, mit képes hozni a gyártástechnológiai előny, hisz az TSMC féle 12 nm csak egy marketing , igazából nagyrészt 16 nm eljárást optimalizálták.
Samsung az Új Exynos gyártásánál a saját 10 nm NOD jukhoz képest 10 % teljesítmény növekedést írtak 35 % fogyasztás csökennéssel, ami a TSMC 12 nmhez képest azt jelenti. hogy kb 50% fogyasztás csökkenés és 30 % teljesítmény növekedés optimális esetben és akár ez eltolható is bizonyos mértékig.Én az új turingtól( Ampere?) jelentős gyorsulást várok kisebb fogyasztással.
Kíváncsian várom[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz
szmörlock007 #24128 üzenetére
-
Abu85
HÁZIGAZDA
válasz
szmörlock007 #20471 üzenetére
A Carmack-féle megatextúra azért több volt ennél, de lényegében az.
(#20472) Depression: Nem igazán oldható meg ez erőből. A virtuális textúrázás azért előnyös, mert ott tényleg csak azokat az adatokat tárolod, amik hasznosak, és hatásfokban messze ez a legjobb megoldás. Új hardvert sem kell venned, csak a motorokat kell erre felkészíteni.
A memória sem azért akadályozó, mert kevés, hanem azért, mert rosszul használjuk. Emiatt kell hozni az okos módszereket, mert a memória ára drága, tehát az annyira nem nőhet, de mindenki tisztában van vele, hogy a memória nagy részében haszontalan adat van betöltve, amihez a programfuttatás jelentős szakaszában hozzá sem nyúl az alkalmazás. Azt kell elérni, hogy hatékonyabban használjuk az erőforrást. Ez nagyrészt szoftveres kérdés. De jelenleg ott tartunk, hogy több explicit API-t használó program rosszabbul használja a VRAM-ot, mint a régi DX11 vagy OpenGL, dacára annak, hogy megvan a lehetőség az alkalmazásra szabott menedzsmentre. És ezen a Microsoft sem igazán segít, mert kb. írtak egy nagyon alapszintű RSL-t a DX12-höz, de például ennek a Vulkan API-ra írt alternatívája sokkal bővebben kezeli a problémát. Ezeket kellene kezelni, mert annyi memória és teljesítmény veszik itt oda, hogy az már káros.[ Szerkesztve ]
-
Motyi
senior tag
válasz
szmörlock007 #19068 üzenetére
2020-ig elhúzzák és már 7nm-n jöhet ki a cucc
-
válasz
szmörlock007 #16910 üzenetére
valószínűleg nem kettőt fognak lehúzni róla, hisz a psacal is megért pár generációt
A 7 nm szerintem is erre az évre kacsa hír.[ Szerkesztve ]
-
válasz
szmörlock007 #16910 üzenetére
Ebben van ráció, régen ezt menetrendszerűen csinálták - mind a 7000, mind a 8000/9000 széria esetén volt ilyen. A kérdés inkább az, hogy ez a jelenlegi sales politikával mennyire fér össze.
-
Crytek
nagyúr
válasz
szmörlock007 #16906 üzenetére
Nem muszáj ellátni őket legyártanak pár db-ot amit a 0. percbe felvásárolnak... de mondhatják kijöttek az új szériával...Ellenfél nincs így aggódniuk sem kell majd semmiért
-
KAMELOT
titán
válasz
szmörlock007 #16874 üzenetére
Szerintem már azért körvonalazódik a dolog és speckók hitelesnek tekinthetőek. Ha jól olvastam másik cikkben júliusban dobják piacra. GTX 1170 5-600 euros áron még jó is lehet!
-
Ren Hoek
veterán
válasz
szmörlock007 #16884 üzenetére
Ezek csak fiktív kategóriák jelenleg.
Nehogy azt mondd már, hogy a jelöléstől kéne az árnak függenie. Kapsz 150 körül egy 4K játékra alkalmas VGA-t, ami szinte mindent visz 60 FPS-ig kis kompromisszummal.
Ez a kategória ennyibe kerül... eddig prémium áron ment, 250-300-ért.
Vége már a békeidőknek, amikor fej-fej mellett haladt a két gyártó, és árverseny volt.
-
Mirman
őstag
válasz
szmörlock007 #16884 üzenetére
1170 Ti helyére jön árban a mostani majdnem 1080 teljesítmény helyett 1080 Ti teljesítményével. Ennek én csak örülni tudnék. Persze lehetne olcsóbban adni de miért tennék ha tényleg nincs konkurencia és ezért az árért is viszik majd mind a cukrot .
[ Szerkesztve ]
-
Ren Hoek
veterán
válasz
szmörlock007 #16882 üzenetére
Ne vicceljünk már, 1080 Ti teljesítményét megkapnánk átszámolva 160-180K-ért?
Ami most 300 körül megy... ez nekem álom kategória.Konkurencia nélkül meg esélytelen, hogy normális árcsökkentés legyen. Örülni kell annak is, hogy ennyivel olcsóbban megkapnánk egy 4K képes VGA-t.
-
Ren Hoek
veterán
válasz
szmörlock007 #16879 üzenetére
Ez most csak irónia, ugye?
Bocs fáradt vagyok a humorhoz most.
-
Tomassy00
senior tag
válasz
szmörlock007 #16879 üzenetére
Főleg úgy hogy mire ide ér 500-ból 550-600 vagy 600+ euró lesz egy használható darab...
-
Mirman
őstag
válasz
szmörlock007 #16874 üzenetére
Ha ez ebben a formában megjelenne szerintem mindenki elégedett lenne nagyjából .
-
Jack@l
veterán
válasz
szmörlock007 #16874 üzenetére
Az idő és az ár az reális lehet, a teljesítmény már kérdéses.
-
Televan74
nagyúr
válasz
szmörlock007 #16535 üzenetére
Az utolsó mondatban a lényeg. ,,Stay tuned on Wccftech for more"
De ha igaz is akkor megint lesz egy zárt a Voltára optimalizált API.Az Nvidia megint eléri hogy az összes Nvidia tulajdonos,az új kártyára váltson.
-
Drizzt
nagyúr
válasz
szmörlock007 #16451 üzenetére
Huu, nekem nagyon nem jon be.
Pedig regota erdekelt, de rettento rideg lett. Semmi olyan nincs benne, ami megkulonboztetne egy atlag ssc-s irodatol.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Windows 11
- NVIDIA GeForce RTX 5080 / 5090 (GB203 / 202)
- Bemutatkozott a Poco X7 és X7 Pro
- Szólánc.
- Fűzzük össze a szavakat :)
- Asszociációs játék. :)
- Vicces képek
- Samsung Galaxy S25 Ultra - titán keret, acélos teljesítmény
- AMD GPU-k jövője - amit tudni vélünk
- Melyik tápegységet vegyem?
- További aktív témák...