-
IT café
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
rocket
nagyúr
válasz Bj Brooklyn #945 üzenetére
Az NV azert nem fog tudni semmikeppen akkorat durrantani mint a G80-nal, mert az ATi nem az R600 V2-vel jon a piacra ~6 honappal kesobb
Altalaban egy kimagaslo sikerhez kell a masik fel szerencsetlenkedese is, R300 azert volt a varhatonal jobb, mert az NV a varhatonal rosszabb GPU-t csinalt az NV30 szemelyeben, ugyanez volt a helyzet a G80 es R600 kapcsan es a kesesek is kozre jatszottak a helyzet kialakulasaban.
Legfontosabb az adott generacioban elsokent piacra lepni az uj termekekkel, ezzel kilehet alakitani a megfelelo hypeot es elonyt, ha ez meg egy uj OS (Win7) es A+ (Q4-ben jon a legtobb jatek) kategorias jatekok megjelenesehez kozel esik az ujabb pluszokat jelenthet.Ha joval kesobb jonnek az NV kovetkezo generacios termekei mint az AMD-e, akkor azt kell megvalositsak, hogy a megelelo grafikai teljesitmenyt nyujtsak jatekok alatt.
NV30 es az R600 veszte is az lett, hogy kesobb jottek es nem hoztak azt a szinten amit vartak toluk, tehat ha az NV nem egy GPGPU szornyben gondolkodott es gyorsabb tud lenni akkor az ATi kezdeti elonyet konnyen letudja nullazni, viszont ar/ertek/meret aranyban hasonlo helyzet alakulhat ki mint az RV770/GT200-nal, igy uzletileg hasonlo buktatok lehetnek.Ha volt eszuk strategiat valtottak es nem eroltetik tovabb a monolitikus highend GPU-t
Ha maradnak a monolitikus highend GPU-nal, akkor szerintem az NV a highendet behuzza, viszont alatta megint nagy sz@rban lesznek, de mivel marketingben erosek igy johetnek majd a felrevezeto temrek nevek, hogy ugytunjon mintha a DX11 highend kartyak kistestverei lennenek a DX10.1-es elozo generancios kartyak."A lower resolution generally means that there can be more quality per pixel."
-
Abu85
HÁZIGAZDA
válasz hugo chávez #952 üzenetére
Ilyenre manőverre nincs kapacitásuk. A mérnöki gárda létszámát minimum meg kellene duplázni, és akkor még a két rendszer támogatását nyújtó rendszerprogramozókról nem is beszéltünk.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Laraxior
titán
igazából olyan mindegy melyik hir igaz... brutálisan erős kártyát fogunk kapni az tény
A másik meg... úgyis csak pár hónapig fog felülkerekedni az egyik... aztán jön a másik...
soha véget nem érő pénzlehúzós műfaj ez de mi élvezzük
Szó ami szó: 8800Ultrát keresek továbbra is"Mi a hazugság ára? A legnagyobb veszély nem az, hogy elhisszük, hanem az, hogy ha rendszeresen hazugságokat hallunk, akkor már egyáltalán fel sem ismerjük az igazságot. S akkor mit tehetünk? Mi mást tehetnénk, hogy lemondunk még a valóságnak a reményéről is és egyszerűen beérjük történetekkel."
-
p87
senior tag
Szerinted mekkora magmérete lehet majd ezeknek 40nm-en?
Mert ha megint egy 450mm2 körüli lesz akkor megint jó drága lesz, és ha a GTX295 teljesítményét fogja hozni kb. akkor ha az AMD RV870 -ese meg 200mm2 alatt lesz és hozza a 4870X2 teljesítményét akkor nem kérdés ki nyeri az ár/teljesítmény csatát.
Pláne ha még két RV870 lesz MCM-ben akkor még azt is olcsóbban tudják adni mint az NV-ét és sokkal gyorsabb lesz nála.
Elszúrta az NV, hogy csak ilyen nagy chip-ekkel tudja tartani a lépést.[ Szerkesztve ]
-
Bluegene
addikt
állítólag szabnak a felépítesén is nv-ék, viszont ha átalakítják az architektúrát alapjaiban akkor driverekkel lehet a gond
Elszúrta az NV, hogy csak ilyen nagy chip-ekkel tudja tartani a lépést.így jár aki elhanyagolja a fejlesztéseket és lenézi a riválist
ez van, ezt kell szeretni gyerekek
[ Szerkesztve ]
Siemens S65-re való adatkábelt keresek! egyszeri Szoftverfrissítésre! Írj megbeszéljük ha van elfekvőbe/kölcsön neked!
-
szasanyi
félisten
Az jó, év vége vagy következő év eleje sztem nem (lenne) rossz. DE lehet, hogy nem értelmeztem helyesen: akkor a jelenlegi info szerint az új GPU által támogatott API nem a DX11 lesz?
[ Szerkesztve ]
Nyugati az ország, de keletre tart. Már megint... Nálunk visszafelé jár az óra?
-
Abu85
HÁZIGAZDA
válasz szasanyi #965 üzenetére
A DX11-et tuti támogatják. A baj itt azzal lesz, hogy az AMD már ott van a kártyájával a fejlesztőknél, és írogatja bőszen a DX11-es eljárásokat. Az NV-től az elmúlt években a CUDA fejlesztése volt a megszokott, DX10-es dokumentálásuk is alig van. Persze érthető a CUDA nyomatása, mert független platformokkal ők erről a piacról kényszerűen kiesnek.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
szasanyi
félisten
Igen olvastam a CUDAr történetet. Én nem értem, mi a jó abban, ha nem egységes, és mindenki által elfogadott és jónak tartott rendszerben dolgoznak/fejlesztenek, hanem ezt az egyedi és hátrányoktól sem mentes irányt erőltetik. De amúgy már nem is érdekel igazán (meg hol vagyok én annyi info birtokában, hogy ezt megítélhessem), csak ugye lenne már új feature-kel rendelkező, korszerűbb nVidia GPU technology. De még mindig csak az abszolute találgatások szintje van.
Tudom, hogy ez a topik nem az a topik... de lehet, nem is árt egy kis kitérő: véleményed szerint - kis túlzással, a DX11 küszöbén - érdemes HD4890 1GB VGA-t venni? Mire lesz elég DX11 alatt az a teljesítmény?Nyugati az ország, de keletre tart. Már megint... Nálunk visszafelé jár az óra?
-
Abu85
HÁZIGAZDA
válasz szasanyi #967 üzenetére
Pedig az NV szempontjából van értelme a CUDA-nak. 2011-től az AMD és az Intel a csúcslapkán kívül olyan CPU-kat fog kínálni, amik integrált GPU-val rendelkeznek. Ezzel kiesik az alaplapi és a diszkrét GPU piac 120-130 dollár alatti szegmense, vagyis az NV akaratán kívül meg lesz fosztva a GPU piac legnagyobb bevételforrásaitól. Nyilván ez ellen csak úgy lehet védekezni, ha olyat kínálsz amit az AMD és az Intel nem fog. Ez lenne a CUDA, amit természetesen úgy fejlesztenének, hogy az újdonságokat csak az NV GPU-k támogatnák, és az AMD illetve az Intel csak akkor kezdhetne neki - teszem azt - a 4.0-ás verzió hardveres követelményeinek megfelelő rendszer építéséhez, amikor az NV kiadja a speckókat. És persze, hogy akkor adja ki ezeket doksikat amikor már lesz a zöldeknek tökéletes 4.0-ás hardvere. Ezzel a módszerrel az NV egy folyamatos hátrányt teremtene az Intelnek és az AMD-nek, és a kisebb szereplőknek. Nem véletlen, hogy nem akarja senki támogatni a CUDA-t.
Az infóhiány nem biztos, hogy rosszat jelent. Attól még lehet jó egy hardver, hogy nem kürtölik ki a speckóit.
Elején a DX11-es kód 10-15%-kal fog jobban futni, a DX10.1-es kódhoz képest (látványbeli eltérés nem igazán lesz). A Radeonoknak még a tesszellálás sem lesz akadály.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Iron Funeral
őstag
Akkor ez a DX11 megint olyan nagyszerű újítás lesz mint a 10 volt...
Ennyi erővel maradhattak volna 9nél, ott legalább nem volt élsimítás-mizéria
Kicsit más, ok, szóval a CUDA vs. DX10+ eldőlt, mert a CUDA nem nyílvános, de van egy kérdésem, hogy CUDA vagy a DX támogatással lehetne jobb (nem, nem feltétlen szebb) játékokat csinálni? Most arra gondolok, hogy pl. hardveres fizika alap a CUDAnál, ráadásnak az élsimítást is meglehet oldani vele (pont azt hiszem valamelyik csuda DX10.1 játékban meg is csinálták) szóval nekem jobbnak tűnik a CUDA, legalábbis felületesen, amit egy hétköznapi user láthatna egy platformbólWhich Twilight do you like the most? Twilight of The Thunder God! /,,/
-
Abu85
HÁZIGAZDA
válasz Iron Funeral #969 üzenetére
Inkább úgy fogalmaznék, hogy olyan nagyszerű újítás lesz, mint a DX10.1. De a DX10 adta mindkettőhöz az alapot.
Pont a DX9 miatt nincs elsimítás. Az a rendszer nem tud szín és mélység információt szerezni deferred render esetén. A DX10 már tud színt, míg a DX10.1 tud Z-t is, azaz támogatja a Multisample Accesst, amivel tökéletesen működik az élsimítás Deferred Rendering esetén is.
A CUDA az OpenCL és a Compute Shader ellenfele, azaz egy GPGPU interfész. Jelenleg a CUDA a legfejlettebb, de támogatás hiányában a többi hamar utoléri majd.
A PhysX működhet OpenCL-en és CS-en keresztül is, ahogy a Havok is megy OpenCL-en (várhatóan CS-re is megírják). Az NV köti a CUDA-hoz a PhysX-et, ami azt szorgalmazná, hogy legyen értelme az AMD-nek beállni a támogatók közé, de ez is bukott ügy lett.
Az AA-t meg felesleges másik API-val csinálni, amikor a DX10.1-ben ott a Multisample Access. Ezentúl az NV is minimum DX10.1 kártyát fog kiadni, mert nem lehet tovább húzni.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Iron Funeral
őstag
Bár iróniának szántam a nagyszerűt, de ha tényleg úgy gondolod, hogy nagy pukk lesz lesz akkor elhiszem . Jó oké, a tesszalálás már megér egy misét, remélem nem csak békákon lesz fellelhető az effekt
Ez a DX9 dolog új nekem, úgy értem, a HL2 ben (SM2.0-3.0) volt AA és a felpatchelt (SM3-as, HDR-es) Far Cryban is volt, bár ahhoz Radeon X1k vagy G80 kellett.
Vagy ott is úgy volt mint a Crysisban, mármint hol van hol nincs
PhysX-et tudom, hogy lehetne más platformon futtatni, úgy értettem, hogy most jelenleg a CUDA része.[ Szerkesztve ]
Which Twilight do you like the most? Twilight of The Thunder God! /,,/
-
szasanyi
félisten
Nagyjából értem. Sztem még nem dölt el minden, legalább is nekem úgy tűnik. Akár sikerülhet is az NV-nek ez a CUDAr politika, bár az ellenállás nagyobbnak tűnik,mint a támogatás. Majd kiderül ez is. A lényeg, hogy tényleg dobjanak piacra új, korszerűbb VGA-kat, és lehetőleg még idén. Bár ezt kétlem, hogy megtörténik.
A HD4890 kártyával kapcsolatos válaszod nem egészen világos. Tehát nyilván lesz sebesség különbség a DX10.1-et támogató GPU és DX11 GPU között (természetesen az utóbbi javára), de a rendelkezésre álló GPU számítási kapacitás és a fejlettebb feature-ök miatt egy HD4890 valószínűleg elég lesz az újabb, DX11 játékok alá is. Jól értem?Nyugati az ország, de keletre tart. Már megint... Nálunk visszafelé jár az óra?
-
zuchy
őstag
válasz Iron Funeral #971 üzenetére
Csak azok a motorok, amikben van DX9 alatt AA, azok nem deffended renderinget használnak.
PC-STYLE.hu
-
Iron Funeral
őstag
Az oké, én úgy értettem a "mardtak volna DX9nél" dolgot, hogy pl. a Source motorból kihozzák a technológiai maximumot. Aztán miutál láttuk, hogy milyen lassú a gép a csomag alatt jöhetett volna a DX10+os gyorsítás
sz.: off
[ Szerkesztve ]
Which Twilight do you like the most? Twilight of The Thunder God! /,,/
-
janos666
nagyúr
válasz Iron Funeral #974 üzenetére
Így a korábbi hsz-eidhez:
FarCry-nál messze nem kellett G80 a HDR+AA kombóhoz, Gef6-al is ment. Én úgy emlékszem, hivatalosan a Gef7 megjelenésekor villantották meg a HDR+AA dolgot, de gyakorlatilag a Gef6-osak is tudták friss driverrel (mert nem sokat változott a GPU felépítése, és tudásra is SM3.0-ás mindkettő, én végignéztem az összes Gef7 techdemót Gef6-on, miután eszközöltem egy friss drivert, ami akkor hivatalosan nem ment még rá a Gef6-okra, csak 7-es beta volt). A Radeonokon viszont nem tudom mikortól vált elérhetővé a dolog, mert ugye x1yyy-tól volt csak SM3, ami alap, a HDR+AA együtt jó kérdés, lehet hogy kezdettől fogva? Ugyan ez érvényes amúgy UT3 motorra is, ahol a forceware driver összeütyköd valami félmegoldást, hogy legyen AA a deferrend rendering mellett is. Állítólag a Catalystnál is működni kéne ilyesminek, ha CCC-ből erőltetsz AA-t UT3 motorra, de előbbit én is láttam üzemelni (egész jól), utóbbit még soha (illetve esetleg benyelte az FPS-t, de tényleg semmit nem simított).
pl. a Source motorból kihozzák a technológiai maximumot - Kukkants bele a Cinematic mod 9.5-be, vagy 10b1-be. Na, ennyit tud a source2007, és ehhez bekajál egy akkora gépet, mint a Crysis Hyghon. Mikor szórakoztam, volt egy jelenet, ahol kivágott valami üzivel, amire a készítő azt mondta "nem elég 1Gb VRAM 1920-hoz", visszavettem a félbontásból, és továbbment.
Az számomra most rejtéj, hogy ha lesz EP3, illetve ha az nem, akkor valami citromsárga box a Portal2-vel és Left4Dead2-vel, az alá mit tesznek, mert nem úgy néz ki, mint ha a csodamoduláris sorurce annyira vágyna most a DX10 kódra, akkor megvillantották volna már vagy az orangeboxnál, de legalább most az L4D-nél, újatírni meg nemigen fognak, míg ezzel is lehet pénzt csinálni.
Persze jó az a source, de már nem egy technikai csoda. Megjelenéskor fasza volt, de akkor sem volt már olyan hanyattvágós, mint a Cryengine 1,2 (csak a játék volt 1000x jobb, amivel debütált). Jobb példa akkor a Cryengine 2, 95%-ban DX9, és egész sokmindent tud, amit a source2007 nem.Hmm. Tetszik ez a tegra2-ből kilegózott GPU.
Ha emulálnak, akkor később friss driverrel még az sem lehetetlen, akkor a következő DX verziót (pl. megint egy ilyen sunyi 11.1, vagy 11.0b) is ismerheti majd, és ehhez hasonló előnyei lehetnek. Ha nyers erő meglesz hozzá, akkor jó lesz az. Hihetőbb, mint hogy kiadnak egy sokadik G80-at, mert ez a vázolt tegramagos elképzelés ugye GPGPU fronton is jól jöhetne.[ Szerkesztve ]
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
félisten
Már többször írtad, hogy pár év múlva a prociban lesz a GPU is, ezért felmerült bennem egy kérdés:.
Ez már a sw render előszele, vagy ezek még a mostanihoz hasonló felépítésű GPU-k lesznek?
Vagy az intelnél Larrabbe szerű várható, az AMD-nél pedig R600 utód?Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html
-
janos666
nagyúr
Elvileg így van:
"Two key hardware features present in GeForce 6 and GeForce 7 GPUs that accelerate and enable great HDR effects include FP16 texture filtering and FP16 frame-buffer blending. There are many ways to accomplish AA and HDR simultaneously in applications. Some games like Half Life 2 Lost Coast use an integer-based HDR technique, and in such games, the GeForce 6 and GeForce 7 chips can render HDR with MSAA simultaneously using that method. The GeForce 6 and GeForce 7 series GPUs do not support simultaneous multisampled AA (MSAA) and FP16 blending in hardware (the method used in 3dMark 2006).
Viszont nekem úgy rémlik, hogy FarCry alatt is volt HDR+AA Gef6-tal is, csak újabb driver kellett hozzá. De ott van a Gef7 techdemó, amivel sokat szórakoztam Gef6-al, mert kimondottan tetszett, abban tuti ment egyszerre, igaz az OpenGL, de SM3-as kártyán. Az Oblivionhoz is volt erre külön driverprofil.
Szóval elvileg nem ment, de gyakorlatilag mégis megbütykölték driverből, ahogy a deferrend rendering + AA téma is egész jól megy Geforceokon (már amennyire mehet, és pl. radeonokhoz képest).
[ Szerkesztve ]
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
Abu85
HÁZIGAZDA
válasz Iron Funeral #971 üzenetére
De a HL2 és a Far Cry nem is volt Deferred Render motor. Ellentétben az újgenerációs motorokkal (UE3, RAGE, Yeti leszármazottak, és még lehetne sorolni.).
Az MSAA sok új dologgal nem kompatibilis. A Crysis esetében csak az Edge Detect volt a probléma, így ez az effekt kikapcsol az MSAA aktiválásakor, ez eredményezi a fák, bokrok túlzott recézettségét.
Nyilván a PhysX jelenlegi formában való támogatásához CUDA támogatás szükséges a gyártóktól.szasanyi (#972): A DX11-et támogató játékok első hulláma alapvetően DX10.1-re van írva. Tehát a DX11-et sebességnövelés szempontjából használják (Compute Shaderes Local Data Share, stb.) Nyilván a Compute Shader programokat sebességvesztéssel tudják futtatni a mostani DX10.1-es karik is. Emellett a HD Radeonokban van tesszellátor is, így az is megoldott.
A DX10-es kariknél sok függ az eljárástól, de átlagosan 35-40%-os sebességhátrány áll majd fent, és a kpminőség sem lesz megfelelő (mérsékelte, vagy teljesen hiányzó AA, AF és gyenge minőségű árnyékolás, illetve SSAO)Bici (#977): Az első CPU-GPU variációk még a jelenlegi architektúrákkal lesznek megoldva. Az Intel nem Larrabee alapot tervez a Sandy Bridge-be, mert egyszerűen ez az elképzelés a DX kötött futószalagjának emulálásával nagyon lassú. Egy célhardver kisebb és gyorsabb. Azt nem tudni, hogy a GPU GMA4xxx, vagy PowerVR GMA5xx leszármazott lesz-e. Az utóbbinak mindenki jobban örülne. Az AMD cucca biztos, hogy R6xx-7xx-8xx buherálás.
HDR+AA kérdéshez: Többféle HDR van - az FP16, az FP32, az int10b és az RGBE az elterjedt formátumok. A HL2 például int10b-t használ, így nem gond az AA. Például a régen bőszen alkalmazott FP16-hoz már FP16-os blending egység kell, az AA támogatásához.
janos666: A Catalyst AI a GeForce meghajtóhoz képest másképp működik. Az AMD az effektet tartja előbbre és az AA kényszerítés csak másodlagos. Az NV pont fordítva csinálja, AA lesz, de effekt nem. Ez esetenként érdekes mintavételezés eredményeket szül ami elcsúszott tükröződéseket és helyenként hibás árnyékolást eredményez. Ezt amúgy csak Deferred Shadowingnál lehet eljátszani, Deferred Shading, vagy Lightning esetén már eleve rá sem kényszeríthető az AA a motorra.
Igazából egyik kényszerítő felfogás sem jó, az AA-ról nem a gyártónak kell gondoskodni, hanem a motor fejlesztőjének, főleg ha van megoldás a problémákra.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Iron Funeral
őstag
válasz janos666 #975 üzenetére
Na ezt így konkrétan nem tudtam, hogy driver újítással van AA+HDR NV40/G70 karikon .
Még úgy is emlékszem mintha annó a pH! G80 teszben írnák, hogy végre van HRD+AA GF karin
A Source tudom, hogy nem csoda motor, annó jobbnak tartottam az id Thech4-et pl, de még az UE2 tuningolt változatai is szebbek sokszor... Csak a HL2 az HL2
Arról meg ne is beszéljünk, hogy az árnyékok átlátszanak a falakon, lépcsőkön stb... ilyen persze a Tech4-el nem fordult elő sosem. de még a Cry1-el sem...
Mondjuk, ha jól emlékszem annó a Valve tiltakozott is, hogy most minek kellett ez a DX10 mert nem is olyan jószerk.: G80 teszt, idézek a lap közepéről: "Az ATI korábban büszkén hirdette, hogy csak az ő termékei képesek egyszerre HDR-t és AA-t használni. Mostantól nem érvényes ez, ugyanis a G80-ban végre van egyidejű HDR és AA. A nagy dinamikatartományú renderelés extrája, hogy nem csak 64 bites, hanem 128 bites precizitással is végrehajtható."
[ Szerkesztve ]
Which Twilight do you like the most? Twilight of The Thunder God! /,,/
-
Med1on
aktív tag
A semmi az a valami, ami azáltal van, hogy nincs.
-
-
Med1on
aktív tag
Állítólag egy nagyon szerény méretekkel megáldott chipről van szó alig: 23mm * 23mm ~530mm2
Ekkora gpu kihozatala 40nm-en a TSMC-nél igazán "'lehengerlő" lehet.Nagyjából 3db RV870 (~180 mm2) kijön belőle ha mind két oldalon igazak a pletykák.
A semmi az a valami, ami azáltal van, hogy nincs.
-
tzsolesz
nagyúr
Nagyjából 3db RV870 (~180 mm2) kijön belőle ha mind két oldalon igazak a pletykák.
És a TSMC-nek ehhez nem lesz valami mondanivalója? Vagy majd lesz úgy ,hogy 100-ból 1 ami sikerül? Az úgy nem lesz jó szerintem. Állítólag még az RV840-est is rossz kihozatallal tudják majd kezdetben gyártani.
-
Med1on
aktív tag
válasz tzsolesz #985 üzenetére
Nem túl rózsás a helyzet az tuti de akkor mit lehet várni egy 3x nagyobb chip esetében?
Pontos számokat én nem tudok mondani de az R8xx-ek kihozatala valószínűleg az RV740 felett van az pedig kb. 30%+. jelent. Az biztos ,hogy most is lesznek redundáns terültek a gpu-ban amikre most valszeg nagy szükség lesz.Komolyabb javulást az őszre ígért a TSMC de ezt már párszor hallottuk tőlük mostanában.
A semmi az a valami, ami azáltal van, hogy nincs.
-
janos666
nagyúr
válasz tzsolesz #985 üzenetére
Ha 3x akkora terültet foglal el ugyan azon a korongon, attól még csak 3x-osára nő a statisztikai selejt arány. Ha összevetjük azzal a feltevéssel, hogy 2db kis GPU lesz az egy nagy ellenfele, akkor ez feleződik, és az nv máris csak 1,5x-es hibatényezővel viseltetik AMD-hez képest (na persze csak a csúcskártyákon, mert mindkettőből lehet herélt chipes kártyát csinálni, de attól nem lesz olcsóbb, mint az egychipes a kétcsipeshez képest). És ez a 1,5x-es szorzó nem áll lineáris kapcsolatban a költségekkel, elvileg ettől kisebbnek kéne lennie, hacsak nem állnak hasonló számban a selejt, és hibátlan GPU-k.
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
Abu85
HÁZIGAZDA
válasz Iron Funeral #980 üzenetére
Ha jól tudom, akkor az Oblivion RGBE HDR-t használ, amit tényleg az X1000 széria támogatott legelőször. Tudás szempontjából erre képes lett volna a GF6-7 is, de az NV tiltotta az RGBE melletti AA, mert drasztikusan tizedelte a sebességet.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
tzsolesz
nagyúr
Értem, tehát nem túl rózsás a helyzet.
-
Med1on
aktív tag
A GT300/Fermi specifikációit nem tudjuk biztosra (még a nevét se) de a jó hír, hogy David Kirk elmondta milyen grafikus kártyára számíthatunk tőlük 2015-ben.
"In 2015, the 11nm-generation will have 5,000 floating point arithmetic cores, a performance of 20TFLOPS per chip with an operating frequency of 3GHz, and a memory bandwidth of 1.2TB/s."
A semmi az a valami, ami azáltal van, hogy nincs.
-
Abu85
HÁZIGAZDA
Okos stratégia. Ahogy olvastam már több elemzőnek leesett, hogy az NV nem tud már semmit alakítani a GPU piacon. Kis tűzoltás lesz ez, hogy az NV komolyan gondolja még mindig a GPU fejlesztést. Valószínűleg ezért is ez a hosszútávú jóslás.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
-
Med1on
aktív tag
válasz Iron Funeral #995 üzenetére
Jól gondolod így számolnak 2015-re.
A semmi az a valami, ami azáltal van, hogy nincs.
-
janos666
nagyúr
Furcsa, kicsit olyan ez, mint ha Gef6 időszakban mostanra 512 pixel, és 128 vertex futószalagot jósoltak volna elő. Ha le akarnak nyűgözni, valami ahhoz hasonló újítást ígérjenek 2015-re, mint a G80 volt.
[ Szerkesztve ]
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
Abu85
HÁZIGAZDA
válasz Iron Funeral #995 üzenetére
Nem vagyok benne biztos, hogy 2015-ben ez az "5000 shader" proci a helyes irány. A Larrabee-féle felépítés tűnik a jó elgondolásnak, ilyen távlatban.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
biggamer
veterán
NVIDIA: 11 nm-es, 5000 darab stream processzorral rendelkező GPU-k 2015-re : [link]
[ Szerkesztve ]
Ha az életben minden fontos dolgot szemmel el lehetne intézni, akkor az utcákon csak halottak és terhes nők lennének ... WOT / BF3 / BF4 ... biggamerHUN
-
Laraxior
titán
válasz biggamer #999 üzenetére
write only? egy egész oldal óta erről megy a vaker...
"Mi a hazugság ára? A legnagyobb veszély nem az, hogy elhisszük, hanem az, hogy ha rendszeresen hazugságokat hallunk, akkor már egyáltalán fel sem ismerjük az igazságot. S akkor mit tehetünk? Mi mást tehetnénk, hogy lemondunk még a valóságnak a reményéről is és egyszerűen beérjük történetekkel."
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Formula-1
- Milyen belső merevlemezt vegyek?
- Intel Core i5 / i7 / i9 "Alder Lake-Raptor Lake/Refresh" (LGA1700)
- Házi hangfal építés
- Elektromos rásegítésű kerékpárok
- Samsung Galaxy Watch4 és Watch4 Classic - próbawearzió
- Opel topik
- Óra topik
- Kínai, és egyéb olcsó órák topikja
- CMF Phone 1 - egy jó telefon
- További aktív témák...
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen