Hirdetés
- Felháborodott az Apple, a Meta az iPhone-felhasználók üzeneteit akarja olvasni
- A luxusmárkáknak kell a bitcoin, az USA jegybankjának nem
- Letiltja az USA a politikusokat a telefonhívásokról és szöveges üzenetekről
- Nagy áttörés jön a napelemek piacán, nem kell annyi hely a paneleknek
- Belenyúlt az USA az Epic Games igazgatótanácsába, nyomoz az NVIDIA
- JavaScript topic
- OpenMediaVault
- Kodi és kiegészítői magyar nyelvű online tartalmakhoz (Linux, Windows)
- PR-Telecom
- Ingyenes vagy akciós szoftverek
- Felháborodott az Apple, a Meta az iPhone-felhasználók üzeneteit akarja olvasni
- Vodafone otthoni szolgáltatások (TV, internet, telefon)
- DIGI internet
- Facebook profil letiltás kapcsolt ismeretlen Instagram fiók miatt
- Otthoni hálózat és internet megosztás
-
IT café
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
tlac
nagyúr
fogalmam sincs, hogy mi volt a hd2900xt-nél, régen nem követtem az ati-t
szerintem az elvárások amiatt vannak, mert nagyjából 1,5 éve az nvidia nem adott ki igazán új kártyát, plusz ott voltak a röhejes átnevezések is
most is csak alsó kategóriás szutykokat jelentetett meg, a fermi-re meg várni kell még hónapokat... -
h.adam.92
őstag
vki megtudná mondani h mi a különbség a skalár és a másik fajta stream processzor között?
-
Abu85
HÁZIGAZDA
Nyilván. Ha az ára a teljesítményéhez vagy értékéhez van igazítva, akkor teljesen oké, csak nézd meg mi volt a HD 2900XT-nél. A 8800 GTS 640 ellen lett árazva és azt el is verte. Mégis csalodás volt a teljesítmény a túlzott elvárásokkal szemben. Akik ezt a HD 5970+15%-ot kitalálták, teljesen idióták, akkora elvárást gerjesztenek, hogy esélye nem lesz a Ferminek a jó eredményekre. Ezzel ássák meg a rendszer sírját.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
biggamer
veterán
válasz gainwardgs #2344 üzenetére
Melyik mivel ???
Ha az életben minden fontos dolgot szemmel el lehetne intézni, akkor az utcákon csak halottak és terhes nők lennének ... WOT / BF3 / BF4 ... biggamerHUN
-
gainwardgs
veterán
Sztem egálba lesznek
Ebbe a kavarodásba már nem is tudom milyen vgat vegyek[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
DX10-ben nem kétséges melyik architektúra volt a jobb. Az R600 normálisan támogatta a Geometry Shadert is. Persze ezt nem használták ki, mert az elterjedtebb rendszeren szarul futott volna a játék. Nyilván ezt a rész most szívjuk meg, mert jön a sírás, hogy ronda a felület tesszellálás nélkül. Jobban kellett volna a GS-t erőltetni, így jobb lenne a grafikai átmenet. A futószalagon ennek a szintnek komoly feladata volt, amit nem ért el.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
rocket
nagyúr
Ha valami csoda folytan megis megveri majd a Fermi az Evergreent az addig megjelent DX11-es jatekok alatt, akkor majd ne gyere elo azzal, hogy az NV lefizette a studiokat
Azt hozza teszem, hogy ezzel a velemenyeddel nem valalltal akkora kockaztatot mint nehany masikkal, de tortentek mar varatlan dolgok a multban
"A lower resolution generally means that there can be more quality per pixel."
-
Abu85
HÁZIGAZDA
válasz strebacom #2340 üzenetére
Az a nem semmi, aki 15%-kal gyorsabbra tippeli a GeForce GTX 380-at a HD 5970-nél. Tudod, hogy mekkora már most az elvárás a rendszer iránt. Ez nagyon vissza fog ütni az NV-nek. Hiába lesz a terméknek értékelhető ár/érték aránya, olyan magas az elvárás, hogy mindenki azt várja, megalázza a Radeon HD 5870-et. Szerinted ez hogyan hat a termék sikerére? Még ha normális árat szab hozzá az NV, akkor is bukás lesz.
Ezért nem jó ez a túlértékelés. Jobb meglepődni, mint csalódni. Érdemes a HD 5870 szintjére várni a GeForce GTX 380-at, DX11-ben inkább alatta.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
gainwardgs
veterán
Jó lenne ha igy lenne.
Bár a 360 is 95-100 körül lessz xval.
Meg ehhez elkell azért 1 jobbfajta cpu. Sztem min 3.4ghz-s quad -
Abu85
HÁZIGAZDA
Én inkább 1 TFLOPS-ot mondanék a GTX 285 esetében is, aktívan használható a GT200-nál az extra MUL. A G80 óta durván rágyúrt erre az NV.
Egyébként vegyes az összkép. Radeon: 5 GeForce: 5 győzelem, egyet döntetlenre vettem. A Clear Sky alatt a Radeon szebb AA-t csinál a DX10.1 módban, így ott nem tiszta a teljesítmény, bár amúgy is csak 1 FPS-sel volt gyorsabb a GeForce. Szóval döntetlennek tűnik.A Ferminek még nehezebb dolga lesz. Minden DX11-es játékot az AMD-vel fejlesztenek a stúdiók. Fermi még ki sincs küldve a fejlesztőknek. Csoda lesz, ha így megveri DX11-ben a HD 5870-et.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
rocket
nagyúr
GTX285 1063GFlops
Regebben talalgattuk mekkora nyers ero kellhet ahoz, hogy beerjek a HD5870-et, jelenlegi architekturaban a NV kartyai kb. 40%-kal "takarekosebbak" nyers eroben mint az AMD architekturaja.
HD5850 2088GFlops, HD5870 2720GFlops, HD5970 4640GFlops
A pletykak alapjan GTX360 1152 GFlops, GTX380 1740GFlops
Raadasul a pletykakban szereplo az 1700mhz-es shader orajel eselye a GTX380-nal a zerohoz igen kozel all.Persze ezek csak elmeleti talalgatasok, mivel ugye az architektura valtozik, igy novekedhet a hatekonysag, majd kiderul, szerintem nincsenek csodak, mint ahogy az R600-nal se lett vegul.
[ Szerkesztve ]
"A lower resolution generally means that there can be more quality per pixel."
-
Abu85
HÁZIGAZDA
Egyelőre minden paraméter ami a grafikus képességeket sejteti pletyka. Ami biztos tulajdonság, az az amit bemutattak szeptemberben. Ettől függetlenül nem hivatalosan már lehet tudni (pontosabban meginformáltam), hogy lesz fix-funkciós textúrázó és hát ... mondjuk úgy valamilyen szinten hardveres tesszellátor. Többet én sem tudok, szóval a priviket nem kell készíteni.
Amiről eddig sokat hallottam, az a marketing részét sejteti, a szolgáltatásokra lesz helyezve a hangsúly (CUDA, 3D VISION, PhysX). Olyasmire kell számítani, hogy nem számít milyen gyors a Radeon, ha nem támogatja a következő generációs játékokat, mint például a Batman ... illetve lesz valami frappáns jelmondat is: With GeForce you can have it all. (DirectX 11, 3D VISION, PhysX, CUDA, Ray Tracing)[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
janos666
nagyúr
Szerintem inkább a GTX360 nyalja majd fej-fej mellett az 5870-est, legalább is tesszelálás nélkül, a GTX380 pedig otthagyja az 5870-est, de csak extrém szituációkban (jól megválasztott tesztkörülmények közt, egy-két játékban) karcolja majd meg az 5970 szintjét, illetve az OC változatok közelíthetik majd meg akár emberibb szituációkban is (ahol még mindig a CF hatásfok lesz a nagyobb ludas, de a beállítások már élethűbbek lehetnek mellé).
Bár ha lesz fix tesszellátora, ha nem, én akkor sem lepődök meg, ha poénból sikerül lepipálni a 9800Pro óta dédelgetett feature-ük teljesítményét, mert kitudja hogy, de nekem bűzlik itt valami a HD5 tesszelátorában, főleg hogy a Xenos óta mindig nagy volt ugyan a szájuk, még sem történt vele semmi, és most hogy duplán rágyúrtak, de mégsem lett még most sem Istenes, sőt, az uninigne benchmark alapján továbbra is csak kirakatdísz, most el lehetne lőni a poént, hogy még le is hagyják vele őket (mindkét kártyán többet ér majd kikapcsolni, csak a geforce-on fog kevésbé szaggatni a kép, ha bekapcsolod, illetve szebbek lesznek az FPS grafikonok. )A textúrázás kérdésében pedig, szerintem hihetetlen dolog lenne ha elhagynák, miután a GT200-al úgymond mesterire fejlesztették a textúrázást, és ezzel fel is építettek maguk mögött egy apróbb tábort, aki a programokkal is rágyúrt a dologra, akkor csakis olyan esetben fogják elfelejteni a jól bevált textúrázókat, ha valami még jobbat találtak ki helyette (és abszolút értelemben, nem olyan költséghatékony optimumban, hogy a teslára úgysem kell, hát akkor emulálunk, jó lesz az a hülyéknek játékokhoz is...) Esetleg kisebb mértékben ugrik a textúrázás sebessége, mint az SP-k száma.
[ Szerkesztve ]
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
zuchy
őstag
válasz biggamer #2324 üzenetére
Na beindultak az eszement találgatások.
Én inkább a GTX380 (ha lehet így nevezni) teljesítményét a HD 5870 körülire várom.
De én egytől félek. Mi lesz a textúrázókkal? Csak nem vették ki, még a bukott Lara-ban is volt. Ha nem lesz benne fix textúrázó, akkor szvsz ki se adják a GPU piacra.PC-STYLE.hu
-
Abu85
HÁZIGAZDA
válasz biggamer #2324 üzenetére
Ez jó:
"GeForce GTX 380 will be 15% faster than dual GPU Radeon HD 5970."
Kivi vagyok, hogy honnan szerzi meg az ehhez szükséges +2 TFLOPS-ot?
Bár GeForce PhysX mellett lehetséges.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
biggamer
veterán
Ha az életben minden fontos dolgot szemmel el lehetne intézni, akkor az utcákon csak halottak és terhes nők lennének ... WOT / BF3 / BF4 ... biggamerHUN
-
Abu85
HÁZIGAZDA
válasz dangerzone #2316 üzenetére
Hivatalosan 2010 Q1. A legújabb infók szerint márciusra várható.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
dangerzone
addikt
Valami infó a megjelenésről van már? Vagy még mindig titokzatosság meg sűrű köd övezi a fermit?
-
Crytek
nagyúr
"Az Intel már nagyon régóta próbál betörni a grafikus chipek piacára, eddig sikertelenül. Az óriáscég következő nagy reménysége a sokmagos, Larrabee kódnevű architektúra/chip lett volna, ám a héten jelentették be, hogy a grafikus mag nem lesz kapható kereskedelmi forgalomban. A néhány hónapja megjelent raytrace bemutató alkalmával már bűzlött, hogy gond lehet a chip körül.
Az Intel nem kívánja az AMD/ATI, illetve NVidia megoldásaival szemben versenyeztetni a Larrabee-t, avagy a fejlesztés zsákutcába torkollt. Ez a második Larrabee generáció volt, még egy újabb van a tarsolyukban, ám kérdéses a harmadik, az előző kettőnél merőben eltérő megoldásokat felvonultató változat jó lesz-e és mit szól az egészhez a Sony. Lehet semmit, mert idén már cáfolták, hogy az Intel chip hajtaná a PS4-et. Mindez logikusnak is tűnik, hiszen kétséges, hogy a 2012-2013-ra datált generációváltásig életképes, könnyen programozható, tehát a fejlesztők igényeinek megfelelő megoldással tudnának előrukkolni."
Akkor ettől a szartól sem kell félnie a Ferminek! Mondtam én amikor mutogatták fél fps-el azt a fostalicska bemutatót!
Next PC Upgrade: 2022
-
VinoRosso
veterán
ki van az tesztelve. Alacsonyabb spec-eken eleve gyenébb LOD aránnyal dolgozik a motor. meg aztán van 25ezer féle konfigfájl külön VGA-kra optimalizálva, ezek tele vnnak ilyen tweakekkel, ha valamelyikkel probléma lenne, akkor egyből kiderülne. Az árnyék textúrák méretét érdemes még levenni 1024ről 768ra, nem a memóriafoglalás, hanem a számításigény miatt, ez dob még egy 5-10 FPS-t a látvány jelentős csorbulása nélkül ott ahol sok object van, de pl fűnek alapból nincs árnyéka, tehát olyan helyen ahol ezek vannak többségben ez nem hoz sok +-t. Mondjuk szerintem jobban néz ki árnyékkal, és amennyi FPS drop adódik ebből, annyiért szerintem még megérte volna alkalmazni, csak az átlag usernek ez nem szúr szemet, így még ezzel is csaltak egy kicsit. Amúgy meg valahol láttam letölthető "optimalizált" pályákat, amit a warhead enginején is lehet futtatni, nem tudom ezek milyenek lehetnek, de biztos hoz pár FPS-t ez is.
-
Abu85
HÁZIGAZDA
A Crysis-szal szerintem nincs baj, bár egyértelmű, hogy DX10.1-ben lett volna érdemes pár eljárást megírni, és gyorsabb lett volna a feldolgozás. Na majd meglássuk mit hoznak össze DX11-ben az új Crysis esetében.
HSM: A GTA4-ből ordít a Texture Streaming hiánya. Gagyin megírt port, mérhetetlen memóriaigénnyel. Vannak olyan technikák, amivel ez az igény 512 MB VRAM-ra is lecsökkenthető. Emellett említhetjük az élsimítás hiányát ... lassan hagyni kellene azt az elavult DX9-et.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagyúr
válasz VinoRosso #2305 üzenetére
ezeket nem annyira szeretem, mert sose tudod, hogy ha valamit áthackelsz, akkor az olyan állapotot eredményez-e, ami ki is van tesztelve...
amúgy persze, nem a sok poligon a közvetlen ok - hanem az, hogy azzal a sok poligonnal 67 féle egyéb dolgot kell csinálni. az meglep, amit a postprocess kapcsán írsz - nekem inkább a lighting (a shaders meg a shadows) emelése hat durván a teljesítményre.Tesco-Zsömle: akkor hogy káromkodnának a CF és SLI tulajok, ha összeadná a két kártya memóriáit, és duplaannyit próbálna használni, mint amivel reálisan számolhat...
"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
kpal
nagyúr
válasz TESCO-Zsömle #2299 üzenetére
in is 8600-al toltam mikor a crysis megjelent és örültem hogy egyátalán elindult azon szóvala a crysis a mai napog ott van a toppon.
-
VinoRosso
veterán
válasz TESCO-Zsömle #2304 üzenetére
miért kéne összeadni?
#2300) gbors : konfig fájl, lod arányok kissebbre vétele segíthet, viszont számolni kell a látvány romlásával. Érdekes módon egyébként nem a high poly count fogja meg a vga-t(legalábbis az enyémet), vram használat még 1680x1050ben is nevetségesen alacsony ( 256 MB vagy az alatti átlag), hanem a post process, leginkább a motion blur, DoF, kissebb mértékben HDR, Color Grading. Dx10 unyan segít rajta valamennyit, de nem sokat.
[ Szerkesztve ]
-
TESCO-Zsömle
félisten
-
HSM
félisten
válasz TESCO-Zsömle #2302 üzenetére
Szerintem pedig igenis szükséges, sőt, jó dolog, hogy van. Ugyanis ha nincs, az nagyon gáz megjelenítést okoz... Utólagos kirajzolás lesz 1000-rel, de olyan szinten, hogy látod, hogy melletted a villanyoszlopnak egyszer csak árnyéka lesz, meg egyszer csak felépül a város körülötted nagyon gáz.... Sokkkal többet vesz el a minőségből, mint amit hozzáad. Márpedig az "okos" user úgyse fog beletörődni, miért csak mediumon tud játszani az 1GB-os VGA-jával... Én se törődtem bele, feloldottam, de hiába a mégszebb látvány, vissza kellett vegyem, mert egy katasztrófa volt úgy, pedig "csak" ~1300Mb-ra saccolta az igényt, nekem pedig 1024MB volt. Nézd meg ezt a videót, sokat elárul: [link] Ja, és rengeteg BUG-ot is előhoz, ha nagyon túllövöd a VRAM-ot, amíg alatta voltam, addig nem volt baj a játékkal, 1600 körül negyedóránként appcrash... Sajnos bele kell törődni, ha nem fér bele, nem fér bele. A DX10.1-es 4890-emmel se tudok maxon DIRT2-zni.... Ilyen az élet, majd a következő generációval... És azt se mondhatja senki, hogy a semmiért van ez a dolog, mivel rengeteg, és igen szépen kidolgozott textúra van az objektumokon már mediumon is... Ha kicsit odafigyelsz, megdöbbentő dolgokat lehet észrevenni... A rendkívül magasra húzható látótávolságról, sokféle autó/ember meg kutyafüléről nem is beszélve... ennek mind VRAM VRAM és VRAM kell..... Ha pedig mégis felhúzod, akkor csak magaddal tolsz ki, mert felesleges textúrákkal tömöd tele a VGA-d, és egy csomó részletet csak akkor fog kirajzolni, amikor kb. már nem is látod....
[ Szerkesztve ]
-
HSM
félisten
válasz TESCO-Zsömle #2299 üzenetére
Miféle memóriafigyelő gát???
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- SAPPHIRE RX 7900 XTX 24GB GDDR6X NITRO+ GAMING OC VAPOR X - Új, tesztelt - Eladó! 360.000.-
- Fair Áron / AMD Radeon Videókártya Felvásárlás / ORSZÁGOSAN
- AKCIÓ! ZOTAC Trinity RTX 3070 Ti OC 8GB videokártya garanciával hibátlan működéssel
- Fair Áron / AMD Radeon Videókártya Felvásárlás / ORSZÁGOSAN
- Garanciális ASUS TUF Gaming Radeon RX 7900 XT OC 20GB GDDR6 Videokártya
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest