-
IT café
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
NightGT
senior tag
Na viszont ezek a képek a vason futattható tartalom szempontjából bíztatóak. HA (végre!) lesz valami aktuál, és értelmes újdonság...elvileg erről akarna szólni, hiszen. Hmm. Úgy legyen!
Tudják mindenhol, hogy bajban van a PC gaming nevű állatfaj...
(mellesleg: sose higyj egy szerkesztett hozzászólásnak!
)
[ Szerkesztve ]
Speed is the only truly modern sensation
-
NightGT
senior tag
Hát ha 2 nyelv keverve megy (illetve néha belejön a német is, de az már t...túl sok), az valóban zavaró. Az elején. Berlinben éltem, 3 kontinensről ment 3 nyelvcsalád isten tudja mennyi darabbal külön-külön...bábel, de meg kellett, és lehetett is érteni. Sőt.
Neten meg 70% angol megy, azonkívül a magyar...munkahelyen német angol magyar (és az a 2 magyar is mennyire más 250 km-re egymástól. Népesebb nyelvnél pedig meg se érti egymást a 2 sarok, de nekem meg kellett)...ez van, 21ik század. Miről beszélünk? Ja, de amúgy van egy mém, hogy húdesarkos, aztán az a bajszos fekete emberke...trú. (sry, csak egy lap, annyit talán veszel...)
ON: nem hibáztatom a másik felet, csak nem tetszik. De amúgy igazad, van, közhely. Mert nemtudom kinek tetszik...itt biztos nem sokaknak, neked se. Nem is kell különösebben találgatni, hogy egy ilyen történet miképp megy tovább, ezerszer megtörtént mese.
És akkor most kinyitom a számat, majdhogynem erogén jelleggel, és...RTX-et kérek zászlóshajó kivitelben a 144Hz nevében, kettő legyen maradjon, hol az 1 millám. SLI-t hova dugom, következő mikor jön? De ha egyáltalán lenne mit tolni ezen ember 97ben volt a Quake 2, 2007ben a Crysis, 2017-ben meg? Ill 18 van, elnézést...már a bánya se...pedig az is biztos jó játék (is) volt. Mondd, hogy nem függ össze. De CPU fronton nem ez van...fog ez valaha változni? Már szinte biztos h nem, illetve én nem látom.
Egy újrakezdő izgalma, majd annak őőő...lankadása mindez pusztán...
[ Szerkesztve ]
Speed is the only truly modern sensation
-
Abu85
HÁZIGAZDA
válasz
Callisto #20089 üzenetére
Nem a DX12 a minimum a DXR-nek, hanem a Redstone 5. A DX12-höz annyi köze van a DXR-nek, hogy a DirectCompute API kap egy interoperability réteget, amivel képes lesz támogatni a DXR futtatási környezetet. Ez már benne van a Redstone 4-ben is, vagyis az áprilisi frissítésben, de ott csak akkor működik, ha aktív a devmode. Ha ez nem aktív, akkor az OS-nek fingja sem lesz a DXR shaderek függvényeiről. Meg amúgy sem, mert a Redstone 4-be épített futtatási környezet eleve nem kompatibilis a véglegessel, amire majd szállítják a programokat. Szóval alapvetően a végleges DXR címek futtatásához a DXR 1.0-s futtatási környezet kell, amit a Redstone 5 kap meg. A DX12 csak azért minimum, mert a DXR shadereket csak DXIL formátumban lehet szállítani, és DXIL-t csak a DX12 API támogat.
Persze ha a Microsoft mondjuk valamilyen csoda folytán úgy döntene, hogy visszaportolja a shader modell 6.x-et a DX11-be, és a DXR 1.0-t kiadja Windows 7-re, akkor természetesen azon is futhatna, csak erre mint tudjuk, hogy mekkora esély van.Ha tényleg érdekelné a Windows 7 az MS-t, akkor már futtatható lenne rajta a shader modell 6.x.
A Vulkan esetében a Khronos azt ígérte, hogy nagyjából egy év múlva lesz draft. Addig jöhetnek kiterjesztések, de az szokás szerint alig fog érdekelni valakit, mert maga a SPIR-V nincs felkészítve ezekre a függvényekre. Az Anvilon keresztüli megoldás pedig eleve nem a SPIR-V-t használja, hanem az egy framework a Vulkan elé, amihez egyedi shadereket lehet írni C++-ban. Ez egyáltalán nem egy szabványos megoldás, mert a Vulkan kiköti, hogy csak SPIR-V-ben lehet shadert szállítani, de ettől persze még a Khronos is elismeri, hogy működik. Viszont szabványosítani ezt nem tudják, mert a legfőbb specifikáció, hogy a shader nyelv a SPIR-V, és semmi más. Persze aki szállítani akar Anvil frameworkön raytracinges játékot az megteheti, a Khronosnak nincs ezzel semmi baja, csak ők olyan megoldást fognak csinálni, ami nem egy API előtti frameworkben oldja meg ezt a problémát, hanem magában az API-ban. Viszont egy ilyen szabványt megalkotni időbe telik. Legalább másfél évbe. De a Khronos tempóját figyelembe véve lesz az két év is.
Alternatív megoldás egyébként a Vulkan-DX12 interoperability. Ezzel a módszerrel maga az alkalmazás futhat a Vulkan API-n, miközben a DXR shadereket a DirectCompute API-n futtatja, az eredményeket pedig interoperabilitás mellett biztosítják a Vulkanhoz. Ez is működik, sőt, még szabványos is.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Jack@l
veterán
válasz
Callisto #20089 üzenetére
DX12 kiegészítése a DXR, értelemszerűen a vulkános már nem az. Raytracinghez nem kell semmilyen gaming sdk, egy 2d vesa megjelenítőn is elmegy.
[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Callisto
őstag
válasz
huskydog17 #20093 üzenetére
Értem. Köszi. Nem tudom, hogy miként megy az RTX a Vulkánnal, mert nem én programoztam azt az ernginet, de ahogy idézted: Anvil frameworkkel tud menni. Honnan tudod, hogy nem azt használják a Vulkánnal?
Azt sem tudom, hogy Redstone 5 csak szoftveres limitje lesz-e a DXR-nek, de léteznek már alpha és béta, fejlesztői kiadások is megjelenés előtt. Honnan tudod, hogy nem azon demóznak és fejlesztenek?"A wise man can learn more from a foolish question than a fool can learn from a wise answer." - Bruce Lee
-
Abu85
HÁZIGAZDA
Nem oldották meg. Kezelhető, nem túl jól persze, de nem megoldható, csak akkor, ha a nulláról újraírják az egészet, ami viszont elég sok idő, és úgy nehezen tehető meg, hogy évente egy csomó játékot kér az asztalra az EA. Az Intel úgy magyarázta nekem, amikor rákérdeztem, hogy miért nem érintettek, hogy ez egy Mantle örökség. Amikor a Frostbite-ot írták az explicit API-ra, akkor mindent a Mantle-höz szabtak, így keletkezett egy egészen vaskos kód a memóriamenedzsmentre. Ezt elég jól átmentették a DX12-höz, hiszen annyiban azért ez az API nem különbözik, de egy dologban azért mégis. Amíg például a Mantle esetében az AMD nem specifikált olyan memóriatípust, ami nem volt legalább látható a hostnak, addig a DirectX 12-ben van ilyen, és ez a fő memóriatípusa a VGA-knak. Na most a Frostbite a Mantle öröksége miatt nagyon épít a host felé látható erőforrásokra, amelyek olyanok, hogy a CPU dinamikusan frissíti őket minden jelenet során, és a GPU majd ezeket fogja olvasni (írni nem). Na most ez egy IGP-nél tök oké, hiszen ott eleve a rendszermemória része a VRAM, és gyakorlatilag bármilyen struktúra mellett az egész host által látható. Tehát a CPU úgy képes a GPU által olvasható erőforrásokat írni, hogy nem szükséges hozzá explicit memóriamásolás. Csak ezért van egyébként az AMD DX12-es implementációjában egy 256 MB-os terület a VRAM-ban elkülönítve, hogy azt a CPU a rendszermemóriát megkerülve, kvázi közvetlenül tudja írni, mert host visible flag van rajta, és a GPU olvashatja az odakerült eredményeket a VRAM sebességével. Na most a Frostbite szemével vizsgálva az a legfőbb gond a DirectX 12-ben, hogy VRAM-ra nem kötelező a host visible flag, és az NVIDIA nem is alkalmazza, így nekik a teljes VRAM olyan, amit a host CPU nem tud se látni, se cache-elni (utóbbi annyira nem lényeges). Erre egy L0-s memory pool van generálva az NV meghajtójába, amiből van egy host visible típus, de ez nem a VRAM-ban van, hanem a rendszermemóriában. Tehát amíg a Frostbite a host visible flaggel rendelkező memóriatípusba helyezett erőforrásokat az Intel és az AMD hardverein úgy frissíti, hogy azokat a GPU közvetlenül tudja olvasni, addig a GeForce-on ez nem lehetséges, mert a VRAM nem elérhető a hostnak, így ezeket az erőforrásokat a GPU nem a VRAM-ból olvassa be, hanem a rendszermemóriából a PCI Express interfészen keresztül. Az újabb Frostbite motorok (a BF1 óta) annyiban kedvezőbbek, hogy van erre egy explicit másolás, vagyis amint a CPU frissítette az érintett erőforrásokat, azokat rögtön bemásolják a GPU memóriájába (erre jó az aszinkron DMA), de ez itt akkor is egy extra másolási művelet, ami ha nem lesz kész időben, akkor sajnos akadásokat idézhet elő.
Az egészet úgy lehetne végérvényesen megoldani, ha az EA mondjuk adna időt a Frostbite Teamnek a memóriamenedzsment újraírására, így az le tudná vetni magáról a Mantle örökségeit. Ennek az a baja, hogy kockázatos, mivel az EA portfóliója megköveteli, hogy a motor folyamatosan fejlődjön, így nagyon mélyen nem nyúlkálnak bele, hogy az ne veszélyeztesse a tervezett játékok kiadását. Valószínűleg úgy vannak ezzel, hogy a next-gen konzolokig kihúzzák, azokhoz pedig úgyis új alapokat írnak, és azzal a fenti probléma is megszűnik.
Sajnos nagyon nem egyszerű ez, és nem igazán a DX12 a hibás érte, mert annak vannak specifikációi, egy csomó játék követi azokat, lásd Rise of the Tomb Raider vagy Sniper Elite 4, és működik igazából a DX12 mód. Persze a VRAM kell, de ettől még fut, zömében akadások nélkül (néha pedig egy-egy akadás eleve előfordul, a PC nem egy fix hardverplatform nem tudod abszolút rátervezni a programot). A Frostbite az a másik véglet valóban nem, sok pénzt beleöltek a Mantle-be, és természetesen úgy akarták ezt áthozni DX12-re, hogy a Mantle-höz írt kódok jelentős részét megőrzik. Gazdaságilag így logikus. De például a Rebellion úgy portolta a DX12-re az eredetileg Mantle-re írt Asurát, hogy a memória-menedzsmentet újraírták. És láss csodát minden hardveren akadásoktól mentesen működik DX12-vel valamelyik grafikai beállítással, amit nyilván a hardver ereje szab meg.
Szóval azért elég sok fejlesztőnek működik a DX12, míg pár fejlesztőnek nem. Nem igazán az API a szar, még csak nem is a gyártói implementációk, mert látod, sokan megoldják.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
huskydog17
addikt
válasz
Callisto #20089 üzenetére
PH zárta ki a Vulkan-t:
"A bemutatón az NVIDIA az általános teljesítményről nem beszélt, az egész a DirectX Raytracingre, illetve az vállalat, RTX nevű implementációjára volt felépítve."
Tehát itt már úgy fogalmaz a cikk, hogy az RTX kizárólag a DXR-en keresztül működik. Ez nem igaz.
Aztán Abutól:
"A Vulkan API-ba csak tervezik belerakni, de a SIGGRAPH-on mondták, hogy még legalább másfél-két évre van, mire a Khronos ezt véglegesíti. Addig a Vulkan csak az Anvilon keresztül támogat sugárkövetést, ami nem az API-ba építi ezt, hanem az API elé egy külön library-vel. [link]
Ettől a fejlesztő természetesen választhatja a Vulkan API-t, de sugárkövetést csak az Anvil frameworkön keresztül kaphat ma, illetve még egy jó darabig."Ez egyetlen PH cikkben sincs említve, továbbá úgy fogalmaz, hogy az olvasóban azt az érzést keltse, hogy kutya se fogja használni Vulkan alatt még hosszú ideig.
A Gaijin elhozta az első Vulkan alapú RTX játékot, erről azonban persze semmilyen hír/cikk nem született, bár nem lep meg, mert akkor az ellentmondana egy korábbi cikknek.Ezen felül Abu kismilliószor leírta, hogy a DXR min. követelménye a Redstone 5, ennek ellenére már most működik anélkül is. Egyik cikk sem részletezi, hogy miért van több működő RTX játék Redstone 5 nélkül. Bárr annyira engem nem érdekel, de az egyértelmű, hogy nem kell Redstone 5 a DXR-hez, ahogy azt Abu milliószor el akarta adni különböző formákban. Értem én, hogy azt az MS szabta meg, de jó lenne, ha a PH túllátna a DXR-en.
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
h4mi1
tag
Sziasztok, szerintetek egy i5 8400 elég kihajtani egy rtx2080 8gb ost?
-
Callisto
őstag
válasz
huskydog17 #20086 üzenetére
Csak érdekelne, hogy a DX12 minimum milyen oknál fogva zárná ki a Vulkánt? A Vulkán az a DX12 alatt lenne szerinted? Vagy hogy is van ez? Kérlek. Megmagyaráznád?
"A wise man can learn more from a foolish question than a fool can learn from a wise answer." - Bruce Lee
-
válasz
huskydog17 #20086 üzenetére
Dx re vonatkozó minimum, ha jól értelmezem, nem Vulkanra. nem tudom, lehetséges , hogy igazad van,de az akkor jó hír, hogy ha megy dx 11 alatt is.( nem tartom valószínűnek )
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
szmörlock007
aktív tag
válasz
huskydog17 #20086 üzenetére
A dx 12 minimum szerintem a directx-ekre vonatkozik. A vulkanon is működik a ray-tracing, az független a directx-től.
-
huskydog17
addikt
Ja, annyira a DX12 a min., hogy az Enlisted játékban Vulkan alatt működik a Ray-Tracing 4k 90fps mellett.
A DX12 min. a PH féle elmélet. Ahogy az lenni szokott a PH elmélete fényévekre van a gyakorlattól.Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
válasz
voodoo98 #20084 üzenetére
Hát szerintem ez ilyen béta verzió még, az is lehet , hogy fejlesztői. Dx11 alatt nem működik az RT elméletileg, dx 12 alatt is csak az őszi frissítés után. Persze a preview buildban már működik valamilyen szinten.
valószínűnek tartom, hogy experiencen át lehet aktiválni, vagy fene tudja.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
voodoo98
addikt
Így van:
szept. 3: preload
szept. 4: early access beta (előrendelőknek csak)
szept. 6: open beta (bárkinek, ha előrendelted, ha nem)kb. 7-8 napig tarthat max. (de ez csak tipp a bf1 open beta alapján)
(#20074) b.
Azt én is visszatekertem.
De hol lehet állítani az RTX-et a menüben? (DX11-re volt állítva a menüben, gondolom a demo miatt csak)[ Szerkesztve ]
Gangsters on the Boardwalk http://play.google.com/store/apps/details?id=com.hattedskull.gangsters
-
Samott
addikt
-
Jack@l
veterán
Pár nap múlva lesz béta(public is), majd megnézheted.
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
válasz
Jack@l #20078 üzenetére
Nem is mondtam hogy fikázod, vagy ez nem tudom honnan jött,
Csak írtam , hogy a host szerver is szar volt, látszik. Gondolom ilyen béta cucc még.
Azt hittem ezt a dx 12 megakadás dolgot megoldották már, kb 1 éve nem vettem elő a Battlefieldet.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Jack@l
veterán
Nem az RT-t fikázom, hanem magát a játékot nem tudják megírni rendesen dx12-ben, egy csúcskártyára se. Dx11-el vajsima volt nálam, de 12 kell az RT-hez.
[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
-
Jack@l
veterán
Látszik a hülye dx12 miatti akadozás itt is...
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Battlefiled 5 gameplay RTX On.
Nagyon jól néz ki szerintem.
2:10 nél a kirakat üvegen látszik a tag.
Ez a kis videó azért megmutatja mire lehet számítani játékokban tőle. például egy Bioshock játékban eszméletlen jó lehetne[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
huskydog17
addikt
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
Mindenképpen jobban járnánk árban egy erős konkurenciával.
Ha észreveszed NV azt csinálja, hogy növeli a teljesítményt, de emeli az árát, azaz rákényszerít, hogy drágább kártyát vegyél,vagy pedig csökkentsd a kategóriát a pénzedért, ha előre akarsz lépni.
Például az előző genben egy 980 kártyát kaptál 160 K ért az új generációba már csak egy 1070 fért bele,( azaz a 70-s széria) .
A 970 előtte kb 110 K körül mozgott ami az új generációban már csak az 1060 reszortja lett.
Idén pedig az történik, hogy a 2070 az 1080 árkategóriájába indul a 2080 meg a TI árában. tehát kapunk teljesítménybeli előrelépést,de folyamatosan emelkedő árakat is mellé, amire magyarázat sincs, mert fejlesztési költségek ide vagy oda, de magasan rekord nyereséggel zárul már nem tudom hányadik negyedévük és ez mellett még a memória árakra sem tudnak hiuvatkozni, mert nem került rá 24 Giga ram a TI re sem.Igazából 5 év alatt eljutottunk, a 60 ezres középkategóriától 130-150 ezresig, mert szerintem annyiba fog kerülni a 2060 kártya ami ha a dollár árfolyamot is figyelembe veszem akkor is meredek.
Ha esetleg valóban MSRP áron , azaz 500 dollár körül lehetne venni 2070 kártyát( az is csak ÁFÁ-t rászámolva majd 190 K) akkor is meggondolandó döntést érdemelne, de így ez kifejezetten horror.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Samott
addikt
Rossz alul a cimke, kb itt a videoban - a Global Illumination a te kepeden ki van kapcsolva, "Direct Only"-nak kellene lennie a feliratnak.
(There is always a last time for everything.) Overhead, without any fuss, the stars were going out.
-
fauv
őstag
válasz
TTomax #20065 üzenetére
Van. De addig amíg egy fogyasztói társadalomban mindent az ár/érték határoz meg, addig bizonyos plusz fejlesztések kiadását lehet, hogy csak akkor adnának ki, ha azzal a konkurencia fülé tudnak kerülni és ami a legfontosabb, ha az a technológia már stabil.
bele szerkesztettem
[ Szerkesztve ]
-
TTomax
félisten
Minden generációnál van technikai fejlesztés,ha mindig 20-30%ot emeltek volna mára már egy grafikus kártya több millió forintba kerülne.
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
fauv
őstag
Igen, egyetértek, de azért ennek a témának több oldala is van.
Mire gondolok? Tény, hogy egy éles verseny lenne, ami hozná magával a felhasználó barát árversenyt is, azzal jól járnánk. De, nem biztos, hogy ez jó. Szerintetek az NV be merte volna vállalni egy olyan technika fejlesztés /
RTX / bevezetését éles verseny közepette, ami miatt pl. 20-30 %-al drágábban kellene adnia a kártyáit?Vagy tuti nem spórolt volna a memórián amikor egy vagyonba kerülnek a ramok, csak azért hogy minél olcsóbban adhassa a termékeit ?. Azaz, arra akarok kitérni, hogy ár alapján lehet, hogy jobban járnánk, de kevesebbet is kapnánk.
[ Szerkesztve ]
-
sittes79
addikt
Szerintetek megy ez még lejjebb vagy most kell venni?
-
válasz
NightGT #20059 üzenetére
Még mindig nem nvidia vs amd fórum és a GTX 1060 kijövetelkor a az RX 480 volt a piacon, az 580 tavaly áprilisban lett kiadva a gtx 1060 pedig 2016 nyarán.
Egy finomított verzió és pontosan a minimum FPS en kívül nem tudta otthagyni az alap órajeleken futó 1060 kártyát , tehát jah, senki nem rohant 1060/ 480 kártyát lecserélni 580 ra ,a 20 % kal rosszabb perf arány és az azóta is a habokba leledző Dx12 ellenére sem.Dx 12 alatt Pascal sokat lépett előre az utóbbi 1 évben.
Itt a teszt.[link] és az átlag FPS ben pontosan 0,2 % a különbség ami édeskevés egy teljesítményben magasan fölötte járó felső szegmensű hardverekkel is rendelkező ellenféllel a piacrész megfordítására, épp erről beszéltem feljebb.Plusz azért egy elég fontos adalék, hogy Nvidia is kiadta közben csendben a saját finomított 1060 kártyáját, ami fölött sokan elsiklottak, pedig jótékonyan hatott a teljesítményre a gyorsabb memória.[link]
A konkurenciában abszolút igazad van, egyetértek veled, hogy szükség van rá és kell, hogy nyomják a jó versenyképes termékeiket. Amivel nem értek egyet , az a másik fél hibáztatása, és ezen piaci helyzet miatti okolása.
A magyar szöveg közé kevert angol szleng menő dumát meg engedd el, vagy nem tudom, hogy esetleg kint élsz és azért tolod, de nem menő leszel tőle, csak ellenszenves és felét nem érteni annak ,mit akarsz leírni.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
NightGT
senior tag
Az igazság egyik oldalából néhány centi azért akad benne...de a bigger pikcsör az valóban csak annyi, hogy sanszosan az nvidiánál fejlesztettek többet/jobbat. És kész. Majd aki tudja, megmondja, hogy ez igaz-e, vagy csak nekik jött be, de tény hogy jobbat tettek le az asztalra. Hogy miért, better management, jobb agyak, whatever...majd biztos (?) erről is lesz hosszabb írás. Már ha vki megírja, why not. Talán még úgy is, hogy az tényeg igaz legyen, és ne csak egy morcos félgonzo/lapátolási beszéd Rubyért, mint az enyém.
De a morcim oka pusztán annyi, hogy - idézem a szót, írták már itt - a monopóliumot mind szívni fogjuk. Az is, aki Ati-s, meg az is, aki Nvidiás. Majd találgathatunk arról hogy mennyire, illetve már tesszük - mondjuk abból kiindulva, ami a cpu-k terén történt egy év alatt. Amióta van valódi verseny.
Hogy mennyivel lennének a VGA-ink (és maybe a játékaink is?) előrébb, ha ott is lenne verseny, arról is találgathatunk...és perverz, de ha már arról beszélünk, hogy mi igaz, meg mi a bigger pikcsör: ha elegen megveszik mégis a crap atit, és rövidtávon ők vállalják a bukót ezzel...hosszú távon mind többet nyerünk vele, ha életben tartják a (jelenleg nem) vetélytársat ezáltal. Szóval tessék azért halkan, naplemente után, és szigorúan zárt ajtók mögött mondani egy köszönetet is annak szánva, aki mégis megvesz egy vegát...
Ezt viszont nem a kisujjamból szívtam, csak nem professzionálisan űzöm a makroökonómiát / közgázt / játékelméletet, így nem tudom neked a vonatkozó Nash-ekvilibriumot, meg egyéb valid gondolati/tudományos alapokat elmagyarázni konkrétan. Illetve a Nash-ekvilibriumot de (a filmből), ami pont erről szól: ha mindenki a legjobb csajra (legnagyobb haszonra) hajt, akkor végül senki se kapja meg, és mindenki bukik. De ha mellőzik a legjobb nőt, és táncra hívják közösen megegyezve a barátnőit...akkor mind nyernek. A szívás itt csak az, hogy az ember olyan, hogy mégis inkább az elméleti maxra hajt, akkor is, ha TUDJA hogy nem kapja meg - neki a garantált kisebb nyereség nem elég.
Miért van ez így? Megvan a logikus evolúciós oka, csak annyi a lényeg, hogy ma már nem működik. Pofon egyszerű az egész, ha egyszer megérted...de ez már nagyon OFF
(v nem)
Pusztán csak az igazság. Ja, életem legjobb gépeiben a "két vár" dolgozott szinkronban, amíg még volt annak értelme...best of both worlds.
Amúgy ami a kompetíciót illeti, wtf-ról beszéltek? RX580 perfekt vetélytársa (volt) a GTX 1060-nak, több rammal, és jobb dx12 teljesítménnyel. És (ahogy a shopokban néztem) sokszor olcsóbban. Csak itt lett pénz 1070Ti-re...de előtte se voltam erről képben igazából, és vsz. én is az 1060at vittem volna. Minden újtagos-zöldfülűs tiszteletem, még általatok sincs ez a tény említve. Pedig ez is igaz...javítsatok ki ha nem így van, én állom, de minden egyes teszt, és szakfórum tanács szerint így van. És nem új, hogy jaj-tudna-az-annyit-csak-nvidiara-van-fejlesztve, hanem valid fps-ekben vannak egálban. DX12ben meg RX580 vezet. Ki akarjuk találni, h miért nem viszik mégse? Releváns? Én egyelőre nem akarok ennél jobb kártyát most...
Ami van, az vsz. elég lesz az old but gold gaméimhez maxon, szvsz 4k-n is...illetve ha dobok egy cserét 8400ról 8350k/8600k-ra, akkor maybe xd.Mert bakker a Crysis de rettenetesen fogas 1080p 27 colon...bár elvileg pont erre lesz jó az új RTX-es élsimítás, HA működni fog régi gémeken is...edit: nem tune-oltam az élsimítását még control panel-ből override-al, de akkor is...
[ Szerkesztve ]
Speed is the only truly modern sensation
-
keIdor
titán
Felskálázással nem, pont ez volna a lényeg. A render mit tudom én, mehetne 1440p-1800p között, ezt felskálázza az AI, ha közel ugyanolyan lesz a kép, mint natív 4K-n, akkor én lehet elcsábulok.
100fps/100Hz nekem meg már elég, bár a monitor annyira drága, hogy annyit nem vagyok hajlandó fizetni érte, a 2080Ti ára a kisebb probléma. Egy ilyen monitor 2000€ felett van.
¡GLORIA A LAS PLAGAS!
-
Crytek
nagyúr
válasz
Dare2Live #20053 üzenetére
Minden új dolognak rögös utat kell bejárnia..Amúgy ahogy látom tévedés az hogy a cél ....nem a cél hanem ennyit tud a 2080Ti..Nem mindegy
Kb dx12 szitu atomjó el se lehet mondani szavakkal mennyire könnyebb vele dolgozni, nem limitál mint a csúnya fos dx11 mégis itt vagyunk lassan 2019 és még bőven a dx11 dominál ....Ez a ray cucc is egyre jobb lesz több lesz gyorsabb lesz ahogy az erre épűlő nv kártyák is.... Ezért is várom meg a 7 nm-es új nv karikat, kell a ráknak béta VGA
Next PC Upgrade: 2022
-
Dare2Live
félisten
válasz
Crytek #20049 üzenetére
Nem az a baj, hogy jó vagy nem. hátast dobunk nem. Amúgy nekem bejön.
A baj, hogy a cél az 1080P@60fps. Az egész RTnek így és evvel az egész NV generációnak lehet semmi értelme sincs.
don't look up, don't look up, don't look up, don't look up, don't look up, don't look up, don't look up...
-
Crytek
nagyúr
válasz
Televan74 #20048 üzenetére
Itt a legnagyobb kérdés nem az nv hanem ,hogy ki (amd és intel) hogy élik ezt meg. Hogy lépnek ebbe bele mivel támogatják stb...
Egyelőre a pár látott gameben bemutatott ray tracinges cucctól kicsit sem dobtam hátast.. A szarrá alázott semmire nem jónak titulált physx jóval látványosabb dolgokat tudott..Azt fejleszthették volna még nagyobb szintre.Tükröződés meg árnyékok hát elég meh ez eddig..NV új cucca eddig egy dologban hengerelt le engem bár ebből videót nem láttam (tényleg van amúgy?) az az új élsimítási eljárás ami sokkal gyorsabb mint bármi más. Ez egy jó dolog. Jó lenne látni élőben vs-ben a régi "szarok" ellen
Next PC Upgrade: 2022
-
Televan74
nagyúr
válasz
#45185024 #20047 üzenetére
Amíg egy 120.000 Ft -os kártyán nem fog futni a Ray Tracing 1080p/60fps, addig csak néhány kikapcsolható effekt szintjén marad. Ami nélkül ugyan úgy fogjuk élvezni a játékok nagy részét,akinek nincs RTX kártyája,mert azért elég nagy tábor lesz aki még mindig Pascalon fog játszani.1-2 gen kell még mire általánosan eljutunk oda hogy elég embernek lesz megfelelő hardvere,hogy azt mondhassuk igen ez már változás.
Annyi történt hogy az Nvidia nagyon ügyesen megint előbb lépett ki a függöny mögül,és először mutatta be a saját megoldását. Majd kíváncsi leszek a GTX2060 mit domborít RTX alatt.Mindenbe beleugatok!!!
-
#45185024
törölt tag
válasz
Crytek #20046 üzenetére
érdekes hogy itt nem vitték túlzásba a tükröződést.
Na nem azt mondom hogy nem a cél szentesíti az eszközt mert pont olyan szobában játszódik aminek körbe van 4 ablaka
Nagyon a fény terjedését vallják fontosnak , nem azt mondanám hogy szép hanem inkább hogy az agyad jobban valóságosnak fogja fel a látványt többet lehet gépezni
Mondjuk az jó jel hogy nem a TI hez optimalizálnak mert így mindenki a régi tulajok is fognak tudni vele játszani.[ Szerkesztve ]
-
Crytek
nagyúr
Next PC Upgrade: 2022
-
bombibmw
veterán
válasz
Petykemano #20041 üzenetére
Ezt jónak írod.
-
torma1981
veterán
válasz
Petykemano #20041 üzenetére
Én az 1080Ti-vel is HDR-ben játszottam pl a FC5-töt.
-
Petykemano
veterán
válasz
#45185024 #20040 üzenetére
PR debunkingnak nevezném.
Vajon hány tech lap fogja még pontosan ugyanezeket a - pascalnak nem kedvező - beállításokat alkalmazni a benchmark során?
Ugyanakkor meg haladni kell a korral. Azért veszel 1080 helyett 2080-at, hogy 1080p-ben medium settingen játsszál 2x akkora fps-sel? Vagy azért, hogy végre megvehesd a 4k gsync monitort és bekapcsolhasd a HDR-t?Már látom magam előtt a vega tulajdonosok nyafogását: hahh, én már másfél éve HDR-rel játszom...
Találgatunk, aztán majd úgyis kiderül..
-
#45185024
törölt tag
Nvidia Turing Marketing Survival Guide
Éljük túl együtt a PR marketinget... -
Dyingsoul
veterán
válasz
Dare2Live #20031 üzenetére
Hát ez eléggé clickbaitre sikeredett de érdekes módon nem találni azokat az 500$-os 1080Ti-ket sehol.
- Szakmai kérdésekre privátban nem válaszolok, mivel másoknak is hasznos lehet. Erre való a szakmai fórum! -- YT: youtube.com/dyingsoulgaming -- FB: facebook.com/DyingsoulGaming/ Stream: http://twitch.tv/dyingsoul
-
-
válasz
Dare2Live #20031 üzenetére
EVGA 1070 319$
ja nem ha rányomsz a linkre akkor kiadja a valós árat . Az 526 dolcsis kártya a valójában 639 a 319 dolcsi 1070 meg 490[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Dare2Live
félisten
Kozben 1080TI ara beesett 526$ra. Kb 150.000ft
Kivancsi vagyok euros arak kovetik e es persze bemegy e 500eur ala.
Btw ez kb anny mint amennyiert a nem nvs 2070 jon oktoberben.
don't look up, don't look up, don't look up, don't look up, don't look up, don't look up, don't look up...
-
wjbhbdux
veterán
A kovetkezo ember aki le akarna irni az "AMD" szot ebben a topicban, legyen mar szives atfaradni elotte [link]
/s
-
válasz
Petykemano #20027 üzenetére
Korrekt az egész, amit leírtál,de az úrnak nincs nagyon is igaza, csak részben pontosan az miatt amit leírtál.
A piacnak idő kell hogy reagáljon,( tehát konstans, ahogy írtad is hosszú időn át kell folyamatosan jó termékeket kihozni) mint ahogy az is hosszú idő volt, hogy 50 % piacrész lecsökkenjen ide.
DE én itt abba is hagynám ezt az egész vitatémát ,mert ez egy más topik, lejjebb linkelték ahol ezt érdemes lehet folytatni.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Petykemano
veterán
Szerintem meg az úrnak nagyonis igaza van.
Nem bántani akarok senkit a saját részrehajlása miatt - a legtöbb emberben van drukker is és a drukker a saját csapata tetteit racionalizálja.
Mondanám, hogy elképesztő kettősmérce uralkodik a véleményvezérek körében. De kettős mérce tehát van és valószínűleg azért tűnik úgy, hogy a kettősmérce jobban sújtja az AMD-t, mint az Nvidiát, mert többen drukkolnak az nvidiának. Okkal - A fradinak lehet, hogy voltak szép pillanatai, de hát azért egy Barcával össze sem hasonlítható.Szóval ilyenek, hogy a driverek milyenek, meg épp mi a legfontosabb szempont (perf, perf/W, lapkaméret, időtállóság, stb)
A kollégának abban van igaza, hogy ha az AMD holnap kijönne egy olyan GPU-val, ami kategóriánként nagyobb teljesítményt ad le, jobb perf/W mutatóval, kisebb lapkamérettel és még olcsóbban is - tehát minden technikai paraméterében vitatahtatlanul jobb lenne, akkor persze az AMD nyilván kapna egy nagyobb rohamot, amit talán kiszolgálni se tudna, de akkor se változna meg egyik napról a másikra, se még egyik hónapról a másikra SE az eladási statisztika, vagyis a piaci részesedés. Fogalmazzunk úgy, hogy egy ilyen elképesztő és elképzelhetetlen isteni csodával is csak szerény piaci sikereket tudnának elérni.
- Mert attól még lennének nvidia drukkerek - akik jelenleg okkal jóval többen vannak -, akik hangosan kitartanának a csapatuk mellett. Akiknek a véleményének megváltoztatásához nem kicsi, hanem legalább akkora különbségre lenne szükség, mint amennyivel jelenleg az nvidia vezet.
- Mert attól még a polcokról leemelhető gépekben (notik) nvidia lenne - hosszú évekre lenne szükség ahhoz, hogy egy ilyen minden paraméterében a konkurencia fölé emelkedő csoda ténylegesen és valóságosan kapható lenne az ellátási láncokban. Eleinte csak épphogy megjelenne. Hiszen a nagy OEM gyártók nem azt tudják hatékonyan eladni, ami technikagilag elvileg jobb, hanem amire a kereslet van. Ha a user nvidia kártyával szerelt gépet keres, akkor bármilyen jó is, a konkurens csak a futottak még polcon fog megjelenni.
- Mert attól, hogy megszületik egy ilyen csoda kártya és a legtudatosabb vásárlók egyből rohannak a boltba, attól még az nvidiának van kiskereskedelmi jelenléte, postere, játékszponzorációja, az ő logóit látod mindenhol és az ő eladásaiból kap a bolt visszatérítést. Átlag user bemegy a boltba: nem azt fogják neki ajánlani, ami tényleg jobb, hanem ami a boltnak jobb. Engem, aki határozott céllal választottam, már próbáltak rábeszélni inkább nvidia kártya vásárlására. Valaki, aki nem ennyire eltökélt, vagy tájékozott könnyebben átbeszélhető egy másik árura. Hát most érted, ha az OBI-ba bemegyek és azt mondja az eladó, hogy ne vékony, hanem vastag lazúrt vegyek, vagy ne ezt a márkát hanem azt, mert az jobb - ha nem értek hozzá, még örülök is, hogy kisegített.Tehát nem csak hosszú időnek kellene eltelnie, mire az AMD konstans jobb termékkel jobb mindshare-t tudna elérni, hanem a kiskereskedelmi-marketing jelenlétét is meg kellene erősítenie ahhoz. A jobb termék (kompromisszumok nélkül elég jó - elég jó áron) és az amiatti buzz csak arra az 50%-ra volt elég, ahonnan bezuhant oda, ahol most áll (bányászat nélkül ki tudja? Steamben <10%)
Az nvidiánál most nem csak a jobb marketing van, a nem a jobb termék is. Próbáltam úgy fogalmazni, hogy ez nem valamiféle szerencse következménye, ezért az Nvidia megdolgozott (És persze az AMD is)
Abban természetesen igazad van, hogy mindennek az alapja egy versenyképes, jó, jobb termék.[ Szerkesztve ]
Találgatunk, aztán majd úgyis kiderül..
-
Rick3D
senior tag
Akik itt lobbiznak az AMD mellett és okolják az Nv usereket és leendő usereket is a kialakult helyzet miatt azok a kedves tagok a 2 bites/ r=1 userek ! Először is olvassátok már el a topic címét másodszor senkinek semmi köze ahhoz hogy ki-ki miért és milyen kártyát vesz. Mindenkinek a maga dolga. Saját megítélésem szerint ezt a topicot javarészt nem a birkák és a 2bites userek látogatják mert őket nem is érdekli. Ellenben ha mégis , bőven van még lehetőségük és idejük informálódni... Több emberke is leírta hogy nem jószántából lett zöld hanem AMDről váltott még indokokat is olvashatunk , tehát akkor felteszem a kérdést kedves AMD lobbisok : Mi értelme van szítani a tüzet és olyan dolgokat írni amiket érdemben még alátámasztani sem tudtok egy , egyébkénk Nvidia TOPICBAN ?
A válasz nyugodtan mehet ide AMD Radeon™ találgatós topik ....
Nem azért jövök ide hogy az AMD-s bullshitet olvassam ha erre vágynék akkor fentebb megnevezett topicot olvasnám. Köszönöm ! -
válasz
hokuszpk #20024 üzenetére
na igen,de AMD ből vált ki ( az is nagyon nagy siker sztori volt., egy elcseszett vicc) és a gyártókapacitásuk egy részét AMD köti le. ha jól emlékszem ez kikötés volt, hogy elsődleges partneri viszonyba maradnak , és az egyes Modul az AMD nek gyárt. 66% került az új Arab tulaj kezébe és az AMD vezetőségének szavazati joga megmaradtak.
Pontosan így jelent meg akkoriban:"Az AMD Szavazati kontrolljával biztosítani igyekszik a megfelelő gyártástechnológia meglétét, és hozzáférhet a még kezdetleges kutatás-fejlesztési fázisban tartó eljárásokhoz, amivel támogatni tudja a lehetőségek határait feszegetni kénytelen processzorfejlesztéseit, és garantálni tudja a chiptervező és félvezetőcsapatok szoros együttműködését.
A Module 1 természetesen továbbra is az AMD-t szolgálja ki "[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
válasz
NightGT #20020 üzenetére
"Ennyi a titok. Hiába jönne ki az AMD holnap egy olyan kártyával, amibe beépített nanobotok lennének és maguktól sokszorosítanák/fejlesztenék a tranyókat, meg hiába lenne az 3x erősebb...a zátlag júzernek addig az sem lenne pálya, amíg az nem lesz menő. Mert csak annyit ért belőle, hogy ott valami izé van ami mittudoménmit csinál, de hé,a plakáton meg ott a GTX neon színben, akarom."
Ez szerintem abszolút nem igaz.propaganda,a másik fél okolása a helyzet miatt. AMD még soha nem jött ilyen teljesítményű kártyával az NV ellen,ami mondjuk 2 x jobb azonos kategóriában. Amikor pedig jobb volt valamivel,jó pár évvel ezelőtt,a radeon időkben, 50 % körül karistolt piacrészben, pedig nvidia akkor is szépen adott a marketingra. EZ szerintem nem titok amit leírtál, hanem ferdítése a valóságnak.
A titok az hogy jobb kártyát kell lerakni az asztalra, mint a konkurencia.
Mivel ez évek óta nem következik be egyértelmű, hogy a piac elhelyezi az adott terméket/ gyártót egy bizonyos szinten.. Ez nem 2 bites felhasználó kérdése, mert akik rálátnak dolgokra is látják, hogy évek óta ez a történet zajlik. Fogalmam sincs miért kellene mindenféle összeesküvést keresni és előrébb tartaniuk az utóbbi 5-6 év kártya generációit figyelembe véve. Amikor kijött az RX akkor az egész IT világ arról beszélt, hogy de jó ezen az áron , még ha nem is volt egészen annyi, de pár hét alatt befutott széria lett, mert jó kártya volt nagyon jó áron, amit csesztek gyártani és nem lehetett hetekig hónapokig kapni sehol,miközben egy saját gyárral is rendelkezik a vörös oldal. Nem hogy 250 dolláros áron de még 100 K alatt sem idehaza, míg nvidia piacra dobta a pascal és napokon belül elérhető volt szinte minden magyar boltban.
Ezeket nem a zöld vérem mondatja velem, hanem inkább az egyszeri paraszt ember , aki nem érti miért kellene a mostani helyzetnek máshogy lennie.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
-Solt-
veterán
Nekem szinte csak ilyen, az AMD-t negatívan érintő sztorim van...
Persze volt amiben ők voltak a ludasak, például amikor jó fél évig értelmezhetetlen volt az opengl driverük. Azt tudom, hogy a HD3870 óta ide-oda ugráltam a két gyártó között, de egyáltalán nem érzékeltem a saját bőrömön olyan dolgokat amik ennyire indokolták, alátámasztották volna a topikokban uralkodó "csak az NV" mentalitást. Arról már nem is beszélve, hogy ha AMD kártyán volt valami gond akkor azonnal az AMD szapulása ment, ha NV-n akkor júzer error, vagy éppen a fejlesztő volt a hibás...
www.smart-bus.hu
-
válasz
-Solt- #20019 üzenetére
Biztosan voltak ilyenek, de ezek csak morzsák a tortából, nem szeletek. Ill. volt ez a másik oldalon is: anno emlékszem, hogy a Call of Juarez mentén ment a propaganda, hogy az NVIDIA kártyákon szarul fut, mert a G80-ban szar a dzsommetriséder. Csak a mérések nem akarták ezt sehogy igazolni
(#20020) NightGT: ennyire nem egyszerű a történet. Ha az AMD marketing nem végezne ilyen botrányos munkát, akkor nem lenne ilyen szemlélet.
[ Szerkesztve ]
"Piroska és Berci, a farkas / Századunk hősei most."
-
NightGT
senior tag
Nem arról szól a dolog, hogy valaki Intel, vagy Nvidia fanatikus, vagy hogy azért vesznek intelt/ngreediát mert az AMD valamiféle összeesküvés, vagy gonosz erők áldozata.
A dolog pofon egyszerű, a consumer hülye mint az a bizonyos. Nem az ami elöl van, mert az okosabb, hanem ami hátul. Ti a szakértők, és a nagyfelbontású gondolkodás szemszögéből akartok analizálni egy olyan fogyasztói viselkedést, ami arra alapszik, hogy a zátlag júzer 2 bites, és a haver aztmondta, h az amd fos - vagy mert azt látja hogy mindenki zöldet vesz. És hát 500 millió légy nem tévedhet...
Ennyi a titok. Hiába jönne ki az AMD holnap egy olyan kártyával, amibe beépített nanobotok lennének és maguktól sokszorosítanák/fejlesztenék a tranyókat, meg hiába lenne az 3x erősebb...a zátlag júzernek addig az sem lenne pálya, amíg az nem lesz menő. Mert csak annyit ért belőle, hogy ott valami izé van ami mittudoménmit csinál, de hé,a plakáton meg ott a GTX neon színben, akarom.
Nem bonyolult lény az ember, rettentően nem. És kismillió cég ment már csődbe a hulladékvassal szemben, akkor is, ha ő aranyat csinált...ELADNI kell tudni.
És e téren az AMD (most, és VGA-ban - de ami azt illeti, a Ryzen-ek is nudli tolást kapnak ahhoz képest) nagyon gyenge. Egy időben bizony nagyon meglovagolta az underdog, az ellenállás, a mi vagyunk a kommersz ellen, meg a mindenféle punkság fílingjét. És akkor mindjárt nem baj volt az, hogy a Phenom poweron-ra megsütött egy ipari hulladék tápot - hanem az állad leesett tőle, mert ennyire bika cucc ez. Amikor meg a folyékony nitrogénnel hűtött tuner FX-ekről hallottál, mert annak az kellett, akkor nos...mi a jó szó? Raging boner. És nem csak az elborultaknak tetszett ez, hanem rohadt sok 2 bit konzum majmot is megfogott, hogy most ezzel ő statement-et tesz, és ő lesz a menőbb. Minden második koliszobában Radeonos plakát volt, vaze...Geforce? Just pop, boring.
Csak aztán ezt seM lehetett örökké tolni, pláne nem totál versenyképtelen cuccal. Pedig az sem kéne, hogy minden cuccuk partiban legyen...elég lenne egy flagship, ami tud valamit amit a másik nem. És akkor el lehet adni, vagy legalábbis kínálni a többit is. Meg egy kis szorító érzést kelteni az ellen bizonyos testnyílásaiban. És az az üzletben van, amikor már elég ahhoz, hogy a másik kicsit visszafogja magát, és ne fullba tolja a kretént - mint a greedia most.
Speed is the only truly modern sensation
-
-Solt-
veterán
A "monopólium" meg nem azért van, mert az NVIDIA kilobbizta magának
Azért némi közük szerintem van hozzá!
Igaz, hogy én csak a szimulátoros réteg viselt dolgaira látok rá, de ott például a 90%-nál fel sem merül az AMD mert a fejlesztők döntő többsége az NV-t valahogy jobban preferálta. Az IL2 CloD esetéen például megjelent három kék csík a tenger felett AMD kártyákon ami nagyon zavaró volt. Hónapokig ment sírás, a fejlesztő az AMD-re mutogatott, az AMD a fejlesztőre, a júzer megunta és váltott NV-re mert az "probléma mentes". Mondanom sem kell, hogy aztán AMD drivertől függetlenül egy játék frissítés oldotta meg a dolgot... ideiglenesen, hogy a következő frissítésnél újból visszakerüljenek a csíkok. Egy ilyen sztori azt eredményezi, hogy aki az adott topikban VGA cseréhez tanácsot kér, kórusban kapja a csak az NV választ!
Szóval abban a fórumokat bejáró suttogó propagandában, hogy az NV driverek jobbak, az NV problémamentes azért vastagon benne van pár fejlesztő és az NV összekacsintása.
Természetesen ez csak egy szelete a tortának, nem ezért van ekkora előnye az NV-nek, de azért ezeket sem szabad elfelejteni. Az is tény, hogy ha az AMD nem vesztette volna el a fonalat valahol a HD6950/70 után akkor most nem itt tartanánk.
[ Szerkesztve ]
www.smart-bus.hu
-
Locutus
veterán
Érdekes, hogy ha a gyártók továbbra is csinálnak mókuskerekes OTES hűtést, akkor vajon az nvidia miért változtatta meg a jól bevált referencia dizájnt? A hangja miatt aligha, az teljesen rendben volt az utóbbi 2 szériánál már... vagy mégis ennyire alacsony volt a kereslet rá? Mindenki hodály házba épít gépet, ahol nem számít hova megy a meleg?
Komplett hangrendszerem eladó - https://hardverapro.hu/apro/mackie_studio_monitorok_mr5mk3_mr10s_mk3_sub_asus/hsz_1-50.html
-
Luskan
tag
válasz
Remus389 #20007 üzenetére
Szerintem nem szabad egyik táborba sem beállni, ami éppen jobb a Te igényeidnek azt kell megvenni. Ne vedd a lelkedre az AMD sorsát. Ők is csak egy gennyes profit orientált vállalat. Ha szidod az Nvidia marketingjét, akkor érdemes az AMD marketingre is visszaemlékezned, mielőtt megjelentek az RX 4XX kártyái. Intelligens ember vagy, legyél inkább független.
Amúgy a bányászat még mindig nem dőlt be csak lecsendesedett körülötte a sajtó. Szerintem megveszik a videókártyák nagy részét továbbra is, még ilyen áron is.
[ Szerkesztve ]
-
-
Locutus
veterán
Azért jó látni, hogy nálad is van ilyen szakmai ártalom
Mint amikor én a boltokban mindennek csak a csomagolását nézem, hogy milyen műanyagból, és hogy van megcsinálva, és micsoda buzi a konkurenciaKomplett hangrendszerem eladó - https://hardverapro.hu/apro/mackie_studio_monitorok_mr5mk3_mr10s_mk3_sub_asus/hsz_1-50.html
-
carl18
addikt
válasz
Remus389 #20007 üzenetére
2022-ben fele jöhet az intel nagy ágyúja a Sapphire Rapids elméletileg
7 nanométeres fog megjeleni, állítólag ez igen nagy fejlődést hozhat ismét a piacra. Minden igaz ez ilyenkor már vége lesz a intel Corei szériájának.
Kíváncsi vagyok kitart-e az I5-3470 a Sapphire rapidsigTalán az lesz az első cpu ami a GTA 4-et csumán mindenhol kitartja a 60 fps-t
youtubon volt egy videós aki letesztelte a GTA 4 Maximum beállítást egy 5 ghz-re tunningolt 8600K-val. És ott is voltak elég nagy gondok, nem egyszer járt 40 fps alatt a játék. Olyan CPU kéne ami olyan erős 1 szálon mint az i5-3470 4 szálon
Hiába szúr, itt Ryzen a úr!
-
Remus389
veterán
Vagy annyira Intel fanatikus ha az AmD 50%-al nagyobb teljesitmenyt adna 50%-al olcsobban hogy akkor is Intelt vennel?
Kulonben jovo nyartol lesz erdekes, a 7nm ryzen, a epyc procik 7nm-en 10-15%-os IPC javulast ertek el az elso gen epyc-hez kepest, ez elorevetit dolgokat. (jelenleg 4-5% az elmaradasuk tehat nincs igazad)
Ha ugyanez eljon desktopra is, pluszba orajel emeles is jon(meg lehet 12 magos model is lesz), akkor lehet hogy belelozik az intelt, ugyanis utobbi kesik a 10nm-el es ugy tunik a core architekturabol mar kipreseltek amit lehetett.
Tehat lehet jovo nyartol mar AMD lesz az okos valasztas. Raadasul biztos lesz 5nm talan 3nm ryzen is az alaplapodba, tehat meg fejleszthetosegi potencial is marad.
[ Szerkesztve ]
-
carl18
addikt
MIlyen monitorod van? Ha 1080P akkor az I5-8400 és egy GTX 1060 is megteszi, de ha van keret jobbra mehet mellé a 1070 is. Legalább kicsit marad tartalék a jövőben
1440P mellé esetleg küldhetsz 1070-1080-at is. Ha csak egy 4 magos i5 akkor 1080P alá nem raknál alá 1060-tól erősebb gpu.t.
+ Ez nem az a topik gépről kérünk tanácsot, (Azonnali VGA kérdések órája). Keres ráAmúgy szerintem a Ryzen CPU-k simán jók, főleg hogy hardverapron kéz alól kapsz 40 körül 6/12 szálas Ryzent
Ryzen 5-1600-1600X 40 körül kifogható jelenleg
Csak GPU fronton kéne valami alkotniuk elérhető árban
Sajnos az RX kártyákat benyelte a bánya, ezek a VEGA 64-es kártyák meg nagyon drágák lettek.
úgy volna az igazi ha az amd azonos teljesítmény adna gpu szinten 10-15% olcsóbban.Azért egy Ryzen 5 1600 is elég kraftos 1080P-ben elég szépen meghajt egy 1070-et
De aki most megvesz egy 6/12-es Ryzen annak jó pár évig nem kell cserélnie- főleg ha még tunningolni is tudja. Ha a játékok majd rendesen kihasználják a 6/12 szálat 2022-ben még a GTA 6 is elég jól fog rajta menni[ Szerkesztve ]
Hiába szúr, itt Ryzen a úr!
-
fasyrt
őstag
Vadasz, vadasz, te .opni jarsz ide...
Mindig bizom benne hogy most, most, most aztan... aztan megse. -
h4mi1
tag
Sziasztok most tervezek gepet venni, kérdés érdemes várni 1 hónapot a kártyával? i5 proci szóval kártya nélkül is elpöfög 1060 6gb lenne most , van rá reállis esély hogy a 1070 - 1080 ok lejebb mennek? Amazonról rendelek valszeg angliában élek.
-
hokuszpk
nagyúr
hát.
a 'kazantol indultunk, a "mennyire hetkoznapi hasznalat" -ig jutottunk
egy szoval sem mondtam, hogy hetkoznapi hasznalat, bar nekem mondhatni majdnem az, direkt ezert vettem a ryzent, mert hirtelen tobb cpu kapacitas kellett, mint ami megvolt ( a linkelt oclhashcat altal nem ismert hash miatt ) es ezzel a konfiggal most a hatodik hasonlo projektet tolom, es nem urkutatasos ingyenszamitas, fizetnek is erte.
* gondolkodtam a 6/12 Intelen is, de az meg akkor csak bejelentve volt, kapni kb. nemlehetett sehol.node mostmar off az off, pihenjunk
[ Szerkesztve ]
Első AMD-m - a 65-ös - a seregben volt...
-
M@trixfan
addikt
Technikai és jövedelmezőség-beli okai vannak ennek inkább. Nagyon is üdvözlendő dolog lenne a pixelrács további csökkentése szempontjából. Arra nézve semmi kényszer nincs, hogy a szimuláció csak és kizárólag natív felbontáson futhat. Egy ilyen HMD-n egy mostani “2k per eye” render is jobban mutatna rendesen felskálázva a kisebb pixelrács miatt. Szóval pixelrács!=“natív render felbontás”. Az igazán nagy áttörés a látóteret lefedő hajlékony panelekkel és a tökéletes szemkövetéssel jön. Persze akkor meg azt kezdik pedzegetni, hogy miért is nem egy “light field”-be nézünk bele, ahol Nvidia bemutatós fordulattal élve a fókusz simán adódik, “just works”.
twitter: MatrixfanLive | Ősidőktől a PH!-n
-
Joshi
titán
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- 2db gtx1650 4gb
- Hibátlan - ASUS Nvidia Geforce GTX 1050 Ti Cerberus OC Edition 4GB GDDR5 128bit VGA videókártya
- Hibátlan - ASUS Nvidia Geforce GTX 1080 Turbo 8GB GDDR5X 256bit VGA videókártya
- Hibátlan - MSI Nvidia Geforce GTX 1060 Gaming X 6GB GDDR5 192bit VGA videókártya
- AMD RX Széria VIDEÓKÁRTYA FELVÁSÁRLÁS! /Házhoz megyek!/Azonnal/NAGY MENNYISÉGBEN AKÁR!
Állásajánlatok
Cég: Marketing Budget
Város: Budapest