- Az Intel a legmodernebb chipgyártó géppel előzheti meg az egész szektort
- Leváltaná a Google a sütiket, de ez nem elég
- Nem igaz, hogy indiaiak működtetik az Amazon pénztármentes technológiáját
- Már azelőtt szoftvert írnak a chipekhez, hogy elindulna a gyártás
- Van, ahol már törvényben védik az agyhullámainkat
-
IT café
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Az, hogy menjen a propaganda, hogy a GT200 is csak egy átcimkézett G80, ami pedig az NV30 (FX 5800) reinkarnációja, így bár ráhazudják a DX 10.0-át, még a 9.0 teljeskörű támogatására sem vehetünk mérget (még akkor se, ha a Gef 6800 megelőzte a Radeon x800-at SM3.0-ával), miközben a Radeonoknál már 9800Pro óta minden egyes chip egy-egy új evolúció, ahogy már az R600 is úgy készült, hogy csak egy lépésre volt a DX 13.6-tól, és az új GPU-knál játszi könnyedséggel megoldható az új API-k támogatása, így még előremutatóbb, jövőbe vezetőbb technikákat tesztelhetnek rajtuk élesben (mint ahogy a tesszelátor is ott csücsül a magban R600 óta).
Annak idelyén sokkal előbb készült el a G80, így az volt a DX 10.0 certification standard. Bármi is akart lenni a DX 10.0, bármi is lett végül, a lényeg, hogy amit a G80 is tud, az a DX 10.0, a GT-200 ettől még többre képes, mert egyes pontjaiban DX 10.1 képes lenne (CUDA-n át tud deferrend rendering alatt élsimítást, mint a 10.1-es radeonok, a Stormrise is használja), csak szándékosan nem támogatták az API-t. (Az már más kérdés, hogy maradéktalanul eleget tudtak-e volna neki, ha akarnak, ha nem.)[ Szerkesztve ]
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
#65755648
törölt tag
A G80 bár képes lefuttatni a DX10.0 összes eljárását, ezek között van néhány, ami teljesen kifekteti a GPU-t. Az NV ezért nagyon szépen "megkérte" a játékfejlesztőket, hogy legyenek oly szívesek NEM beépíteni a grafikus motorjaikba ezen eljárásokat és helyettük DX9-es eljárásokat használni a motorok Dx10-es verzióiban is. Lásd pl. Crysis.
-
FireGL
aktív tag
A cuda 2.1 nem multi gpu, cuda 2.2 már kezeli a több kártyát, cuda 2.3 az egy kártyán a több gpu-t. Az hogy neked nem működik az nem jelent más mint azt hogy amit használsz szoftvert az nincs felkészítve erre.
Win7-en meg ne csodálkozz...
[ Szerkesztve ]
Az embert a gondolkodás tette állattá...
-
hugo chávez
aktív tag
Na, ezek is jó sokat tudnak [link]
[ Szerkesztve ]
"sajnos ez a beszélgetés olyan alacsony szintre jutott, hogy a továbbiakban már nem méltó hozzám" - by Pikari
-
félisten
válasz hugo chávez #1058 üzenetére
Szal, mégiscsak heggesztenek kisebb csipeket is?
Nem lenne hülyeség.Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html
-
zuchy
őstag
-
hugo chávez
aktív tag
Höö, fasza dolog ez a raytracing [link] , jó lenne már egy olyan hardware a közeljövőben, ami megfizethető és menne rajta mondjuk a crysis real time raytracinges verziója. Talán gt300...
"sajnos ez a beszélgetés olyan alacsony szintre jutott, hogy a továbbiakban már nem méltó hozzám" - by Pikari
-
lenox
veterán
Persze, te nyilvan jobban tudod .
Sajat szoftvert hasznalok, masnak se megy, meg rajta is van a buglistan, ugyhogy szerintem inkabb bug lesz.
Amugy nem semmi onbizalmad van, sose probaltad, de azert te megmondod, hogy a szoftverrel van a problema, nem a driverrel... Gratula .
-
FireGL
aktív tag
CUDA sdk nincs win7 alá egyenlőre, nem is értem hogy fejlesztheted a saját szoftvered ha még ezt sem tudod. Megfelelő sdk nélkül sose fogod működésre bírni a szoftvered. Kezdő programozó vagy ?
Miféle buglistán van rajta ? másold már be ...Az embert a gondolkodás tette állattá...
-
TESCO-Zsömle
félisten
válasz hugo chávez #1062 üzenetére
Hát, ha az a kép fotórealisztikus, akkor elég szar fényképezőjük lehet...
Sub-Dungeoneer lvl -57
-
zuchy
őstag
válasz hugo chávez #1062 üzenetére
Á, olyan hardver nem mostanában lesz. GT300 is édeskevés lenne hozzá.
PC-STYLE.hu
-
válasz TESCO-Zsömle #1065 üzenetére
Azt azért ne felejts el, hogy ez az Adrien még csak G80 techdemo, nem is GT-200, de főleg nem GT-300. Ahhoz képest nem olyan rossz az.
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
hugo chávez
aktív tag
Ja, tudom, de szeretek reménykedni, még ha nem is valós, egyébként meg a Larrabee-ről is azt mondogatták kb. 1 évvel ezelőtt, hogy az majd elhozza a raytracinget, azután meg kiderült, hogy az első verzió csak egy tech demó lesz, de nagyon remélem, hogy az új nv karival (nevezzük bárminek) nem ez lesz a helyzet.
"sajnos ez a beszélgetés olyan alacsony szintre jutott, hogy a továbbiakban már nem méltó hozzám" - by Pikari
-
lenox
veterán
Szoval az sdk a kod futtatasahoz kell? Tenyleg en vagyok a kezdo .
Hulyeseget meg ne beszelj, partnereknek mar tok regota van win7-es cuda sdk, de most a te kedvedert direkt megneztem, a publikus oldalon is ott van.
Buglistat nyilvan nem masolok ide, akit erdekel ezt a konkret bugot a megfelelo forumban is megtalalja...
-
hugo chávez
aktív tag
Ha már az Atinál, akkor az Nvidiánál miért ne? [link]
"sajnos ez a beszélgetés olyan alacsony szintre jutott, hogy a továbbiakban már nem méltó hozzám" - by Pikari
-
Iron Funeral
őstag
nem tudom miért zöl , szerinted egy G80 mit tud egy 2015-ös 5000sp chiphez képest? Ha 128 ennyire képes akkor 5000-el simán meg lehetne csinálni egy mapot
(tudom, hogy Adrianne nem Raytrace demo volt)Which Twilight do you like the most? Twilight of The Thunder God! /,,/
-
biggamer
veterán
Nvidia works on 28nm GPUs : [link]
Ha az életben minden fontos dolgot szemmel el lehetne intézni, akkor az utcákon csak halottak és terhes nők lennének ... WOT / BF3 / BF4 ... biggamerHUN
-
TomLion
tag
válasz biggamer #1074 üzenetére
És most már van hozzá gyártás is..
Ha igaz, nem semmi mozaik kezd kirajzolódni 2010 Q1 re...[ Szerkesztve ]
''Jobb ma egy XP mint holnap egy Duron''
-
félisten
válasz TomLion #1075 üzenetére
Ja, de a GPU gyártásra is alkalmas cucc csak Q2-ben jön.
Ezt már tuti nem várja meg az nV, de lehet, hogy máris tervezik a köv. generációs lapka 28nm-es verzióját, és így akarnak Q2-ben beelőzni az AMD-nek, addig kihúzzák 40nm-en akár veszteséggel is.... kituggya...Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html
-
félisten
válasz biggamer #1077 üzenetére
Miért ne? Az nV-nek az az érdeke, hogy minél olcsóbban gyártson. Valszeg lecsap az első szabad sorokra, ha teheti. Ha ő 28nm-en gyárt, aminek állítólag jó a kihozatala, és az AMD meg a fene tudja addigra miylen kihozatalú, de 40nm-es sorral nyomja csak, akkor erősen javíthat a versenyképességén.
Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html
-
TomLion
tag
nV 40nm-en beéri a DX10.1 szériával, lesz képe kiadni őssze, majd fél évre rá kinyomja 28nm-en az új, DX11-es generációt
''Jobb ma egy XP mint holnap egy Duron''
-
Gonosz15
aktív tag
Tehát ha minden jól megy, akkor is leghamarabb áprilisban? Hm.. Szeptember lesz még csak Még ha jó is a TSMC ütemterve és a GYÁRTÁST el tudják kezdeni áprilisban az Evergreen már kint lesz több mint fél éve. És a gyártás != forgalomba hozatallal.
"Az igazi érték az nem is a szépség, meg nem az intelligencia, nem a humorérzék, nem az hogy milyen a kocsid, vagy az hogy mi a neved, hanem ha te kerülsz szóba azt mondják egy korrekt gyerek."
-
biggamer
veterán
TSMC: jön a 28 nm-es gyártástechnológia : [link]
Ha az életben minden fontos dolgot szemmel el lehetne intézni, akkor az utcákon csak halottak és terhes nők lennének ... WOT / BF3 / BF4 ... biggamerHUN
-
Gonosz15
aktív tag
válasz biggamer #1083 üzenetére
Read only vagy csak a pH -t nem olvasod?
http://prohardver.hu/hir/28_nanometernel_tart_a_tsmc.htmlMost látom #1075 is linkelte már.
[ Szerkesztve ]
"Az igazi érték az nem is a szépség, meg nem az intelligencia, nem a humorérzék, nem az hogy milyen a kocsid, vagy az hogy mi a neved, hanem ha te kerülsz szóba azt mondják egy korrekt gyerek."
-
TomLion
tag
Akkor az ütemterv jó, 2009Q4-re egy kis Dx10.1, mondjuk a G92-vel, pl 340 és 350 néven, majd tavasszal 2010Q2-ben jön az új célhardver Dx11-re, brutális méretű chip miniatürizálva 28nm-en , és sok mindenesz, csak elkésve nem az addig megjelent Dx11 es játékok számát tekintve, viszont addig fenntartható a hype a Phisx és a Stereo3D révén..
B tervnek azért nem olyan rossz...''Jobb ma egy XP mint holnap egy Duron''
-
hugo chávez
aktív tag
Lemaradtam volna valamiről? Eddig úgy tudtam, hogy az Nv dx11-es (gt300?) (gp)gpu-ja 40nm-en jön ki, nem pedig 28nm-en és remélhetőleg nem 2010 Q2-ben, hanem 2009 Q4-ben.
[ Szerkesztve ]
"sajnos ez a beszélgetés olyan alacsony szintre jutott, hogy a továbbiakban már nem méltó hozzám" - by Pikari
-
cszn
őstag
"Rayfield a Hexus munkatársainak adott nyilatkozatában egyenesen úgy fogalmazott, hogy a Tegra az Nvidia jövőjét jelenti."
Ilyen kijelentések mellett azért elgondolkodok, hogy érdemes e várni az Nvidia új kártyáját. Mennyire akarnak lassan kivonulni a vga piacról, ha tényleg kiakarnak?
A legfontosabb kérdés tényleg az, hogy most GPGPUt vagy egy normális hatékony videokártyát akarnak csinálni? Van erről már biztos infó? Mert sztem az első verzióval felgyorsítják a saját kivonulásukat és nekik sok pénz lenne azért... Nem tudom megengedhetik e maguknak. -
Gonosz15
aktív tag
"Nem tudom megengedhetik e maguknak."
8800 GTS 512 => 9800 GTX(+) => GTS 250 => A végtelenbe és tovább
A G92 óta bármit megenged magának az nVidia...[ Szerkesztve ]
"Az igazi érték az nem is a szépség, meg nem az intelligencia, nem a humorérzék, nem az hogy milyen a kocsid, vagy az hogy mi a neved, hanem ha te kerülsz szóba azt mondják egy korrekt gyerek."
-
cszn
őstag
-
Abu85
HÁZIGAZDA
Amíg tudnak bevételhez jutni a GPU piacon addig persze, hogy maradnak. Persze a fejlesztések abszolút GPGPU vonalra történnek, így a GPU piacon a PhysX és a marketing lesz a termék. Ezzel nyilván kisebb kiadások érhetőek el, így elég lesz a kisebb bevétel is, ahhoz, hogy pozitív legyen a mérleg a szegmensben. A PhysX is csak NV-n lesz, így az árverseny sem fontos, hiszen aki PhysX-et akar csak GeForce-ban gondolkodhat, még a Radeon mellé helyezhető társkártyás lehetőséget is megvágták. Gyakorlatilag az NV nem tekinti az AMD-t követlen ellenfélnek, felkínálnak egy plusz szolgáltatást, amit csak az NV-n érhetsz el.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
cszn
őstag
Hát kíváncsi leszek pár év múlva hogy fog kinézni a videokártya piac. Nvidia teljesen kivonul vajon? Ati ellenfele csak az Intel lesz? Megfelelő lesz erre a larrabee? Tart a fejlődés ha nem lesz konkurens? Az árak hogy alakulnak?
(#1093) Abu85 Persze nem tudhatjuk teljesen, hogy mit akarnak, de azért kötve hiszem, hogy minden húzásuk bejönne a további piacokon amit megcéloztak. Nagy a tülekedés.
[ Szerkesztve ]
-
Ha a Larabee jó lesz az akkori játékpiacra is, akkor egy ilyen, ma csak ködös jóslatokban létező, tegra-szerű magokból összerakott, sokmagos GPGPU is jó lesz, sőt, akkor az AMD lesz bajban az R600 alapokkal.
Persze, itt az nv lesz bajban, ha CUDA kéne ahhoz, hogy meghajtsa a chipet, de az Intel sem áll a CUDA mögé, és nem is ad az nv-nek licenset olyan utasításkészletekhez, vagy olyan kompatibilis programozási keretrendszerhez, amit a Larabee-nél a játékipar használna.Pedig nagyon érdekes lenne, ha eltűnne a DirectX, és akár CUDA (vagy más hasonló) alól mindenki írhatna GPGPU-s software-t, beleértve komplett játékmotort, vagy 2D/3D tervező, szerkesztő programokat.
Ehhez kidobhatnának a GPU-ból egy adag felesleges cuccot, és még jobban felfuthatna a nyers számítási teljesítmény. A játékok pedig gyorsítókártyát bevonva renderelnének, azzal számítanák a fizikát, az AI-t, stb. Még a renderelés is javulhatna (nem lennének ilyen hülyeségek, mint hogy nincs AA), ha megszűnnének a DirectX, mint szabványos zárt rendszer korlátai, és főleg a fizika és AI terén nagyságrendi javulások szemtanúi lehetnénk pár generáció alatt.De még több fantáziát látnék a CAD programokban. Már realtime is egész élethű minőségben renderelhetné a szoftver a tervezés alatt álló, félkész művet, mert például a szilárdástni és dinamikai számítások is nagyságrendileg gyorsabban futnának le a GPGPU-n, ami ebből rögtön renderel is képet. (persze nem a végleges terv nagy pontosságú hálójával számolva, de a véges elem modelleknél is jól skálázható a felbontás az előnézethez, csak kéne az erős processzor).
Vagy ott vannak az áramlástani modellek, azok is bezabálnák a világ CPU-it, ha tényleg a szinte-valóságot akarnád lemodellezni, mondjuk egy Duna méretű folyóra, ilyen helyeken is odatehtnék magukat a GPGPU-k, azzal az extrával, hogy ugye rögtön animálhatják is az eredményeket, ha kell, tehát érzékletesebb a visszajelzés a tervező felé. (Persze, hogy ő számokból is ért, de a politikus, vagy pénzember nem, és neki is meg kell mutogatni, hogy adjanak rá pénzt is, meg úgy egyébként sem árt, ha minél emberközelibb a felhasználó felület)De ami itt még érdekes, hogy ha kilőjük a képből a DirectX-et, hirtelen megnyílik az út a Linux felé is, ha addigra tényleg lesz windows kompatibilis kernel, már csak egy driver kéne, még akkor is jól futhatnának ezek a 3D-s programok, ha nem is portolnák őket linuxra, vagy csak minimálisan igazítanának rajtuk.
[ Szerkesztve ]
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
válasz hugo chávez #1096 üzenetére
Tudom, de épp arról beszélek, hogy milyen lehetőségeket rejt magában, ha ez átszivárogna az otthoni szórakoztatóelektronikába is, mint például a játékok, és persze a tendenciának megfelelően kibővülne a tervezőprogramok köre is.
[ Szerkesztve ]
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
hugo chávez
aktív tag
válasz janos666 #1097 üzenetére
Talán opencl alól lenne ilyesmire lehetőség (azt elvileg az Ati, az Nv és az Intel is támogatni fogja), de ahhoz az kéne, mint írtad is, hogy a dx eltűnjön végre. Meg persze az opengl-en is kéne némi ráncfelvarrás, mert ha jól tudom, szerves része lesz az opencl-nek.
"sajnos ez a beszélgetés olyan alacsony szintre jutott, hogy a továbbiakban már nem méltó hozzám" - by Pikari
-
válasz hugo chávez #1098 üzenetére
Na igen, ha OpenCL mellett a grafikáért továbbra is az OpenGL felel, az lehet visszatartó tényező.
Már nem mintha szar lenne, de már a Windows-os CAD programok is átálltak DirectX-re, és erős kiritikákkal illették mostanság a 3.x-eket, szóval az OpenGL erős negatív múlttal indulna újbóli hódító útjára.
És akkor ez még mindig nem ugyan az, mint mikor teljesen egyedi enginet (saját software rendererrel) írnak GPGPU-ra.Erre szerintem a múltból kiindulva az OpenCL kevés lesz, a CUDA mögött lett volna elég nyomóerő, ha még vagy az AMD vagy inkább az Intel beáll az nv mellé.
Szép, meg jó a nyílt szabvány dolog, de tessék, OpenGL és DirectX esete, vagy akár Linux és Windows. Kell mögé egy cég, aki lenyomja azok torkán is, akik nem kérnének belőle. Ez így magában teljesen illogikusnak tűnik, de az élet még is ezt igazolja.Joggal mondják azt is, hogy ha elterjedne a CUDA, akkor utánna az nv mindenkit úgy szopatna vele, ahogy épp nem szégyenli, de szerintem ez nagyon erős túlzás. Ha keresztbetenne például az Intelnek, az keresztbe le tudná nyelni az egész nvidiát, bőven lenne mivel zsarolni őket, hogy semmi turpisság ne legyen a CUDA verziók kiadásában, és a hardwares támogatottság terén.
AMD barátság esetén pedig az lenne a zsarolási alap, hogy otthagyják a CUDA-t, és akkor megint csak keresztbe nyeli le az nv-t az Intel és az AMD együtt.És a CUDA már kész, működik, szép és jó, aki használja, az szereti. Az OpenCL még csak szép ígéret, amiről alaptalan is túl szép jövőt feltételezni az OpenGL múltját ismerve.
[ Szerkesztve ]
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
hugo chávez
aktív tag
válasz janos666 #1099 üzenetére
Tiszta sor ez, ha a Microsoft beállna a Cuda, vagy az opencl mögé, vagy akár megfelelően kibővítené (compute shader?) a dx-et, akkor lehetne egy (majdnem) minden hardver/szoftvergyártó által támogatott közös fejlesztői környezet/platform.
"sajnos ez a beszélgetés olyan alacsony szintre jutott, hogy a továbbiakban már nem méltó hozzám" - by Pikari
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.