Új hozzászólás Aktív témák
-
utobbi 3 evben volt negy AMD es egy NV kartyam (plusz neha itthon is bekotom a laptopot a mobil intellel), en semmi kulonbseget nem lattam kepminosegre. mindezt ugy, hogy a GTX970 es a 290x kozott volt harom hetig egy HD3870el is, ami azert nem mai kartya.
ahol volt kulonbseg, az a Creative 3DFx Banshee es az Eagle Gef460 kozott volt az elobbi javara, de jellemzoen valahol a x800/6xx0 szeria magassagaban eltuntek a kulonbsegek. bugok voltak neha ami miatt kimaradt egy-egy effekt, de kb ennyi.
Szaby59: multimonitor parameterezes szempontbol szerintem pont az AMD az erosebb, par dolgot hianyoltam NVnel. viszont NVnel meg automatikusan valt surroundra 3d eseten amit AMDnel meg mindig kezzel kell kapcsolni. ez mondjuk tobb kijelzore kihuzott fejlesztoi kornyezeteknel elony, de jateknal orulnek ha lenne automatikus valtas.
[ Szerkesztve ]
Don't dream it, be it. // Lagom amount.
-
Laja333
őstag
Nem kell kiforgatni a szavaimat meg pacsizni egymással önigazolás reményében. Egyedül a csonkított megoldás miatt fejeztem ki nemtetszésemet. Sokáig azt hittem jobb lesz mint az X, kíváncsi voltam rá mit hoznak még ki a Maxwellből. Csalódtam, hogy egy 970 XT-t kapunk.
[ Szerkesztve ]
-
Yllgrim
őstag
Ennyi. Addig jo amig tudunk valtani egyikrol a masikra es van mirol mire. Mindig van aktualis jobb, hol itt, hol ott
Peace is a lie, there is only passion. Through passion, I gain strength. Through strength, I gain power. Through power, I gain victory. Through victory, my chains are broken. The Force shall free me.
-
Asbee
veterán
Pár napig 780ti-t használtam. Tuningolva magasabb beállításokat próbáltam mint 970-el. Érdekes módon egyszer nem fogytam ki a vramból. FC4, BF4, GTA5, Witcher 3. Witchert még 1440p-ben is próbáltam DSR-el. Nincs még egy jó ideig félni valója ilyen téren a 970-nek. Csak ugye van aki abból indul ki meg von le teljes következtetést mit monitoroz az msi ab-vel.
A haterek meg úgyis ráhúzzák, hogy na de majd a jövőben így meg úgy. Ezzel nem a kommunikációs részét vitatom, azt is el tudom fogadni aki emiatt cserélte de ez a túlmagyarázás ez már beteges... -
nagyúr
Én szeretek HSM-mel dumálni Időnként - szerintem - (nem) kicsit elfogult, viszont saját gondolatai vannak, és a vita tárgyával foglalkozik a másik fél személye helyett. Úgyhogy it's all good
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Abu85
HÁZIGAZDA
A Halo 3 azért nem jött PC-re, mert nem volt elég processzoridő a driver szálak mellett. Ekkor volt az, hogy az MS összehívta a cégeket, hogy ez így nem lesz jó, mert hiába jönnek a jobb processzorok a reálisan felhasználható processzoridő az egyre agresszívabb driverek mellett inkább csökken. Ezért nem látsz AI innovációt évek óta. Egyre kevesebb rá a büdzsé.
Szinte mindegyik exkluzív ls komolyabb konzolos játék AI-ja és fizikája túlmutat a PC-s szinten. Az AI szempontjából különösen durva a The Last of Us és a Dragon's Dogma. A fizika szempontjából az Uncharted 3.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
HSM
félisten
Igen, az AMD felismerte, hogy már rég a béka segge alatt van a mai hardverek kihasználása is, tehát sokkal jobb eredmény érhető el, ha a szoftveres korlátokat oldjuk fel, amivel a meglévő vásárlóbázis is rengeteget nyerhet. Az Nv meg felismerve a helyzetben rejlő lehetőségeket ("beragadt" 28nm + komoly szoftveres korlátok) bedobott még gyorsan egy nagyra növesztett mobil GPU-t, ami így remekül szalad a mai szoftveres környezetben, és látszólag mindenki boldog.... Most még...
(#6103) NetTom: Ha tényleg 2018-2020-ra el akarják tüntetni a külső GPU-kat, simán lehet. A HBM miatt lehetne a memória, 250W TDP-t emlegetnek a prociknak is, a Zen is jónak ígérkezik. ELég hatékony, erős cucc lehet belőle addigra.
[ Szerkesztve ]
-
HSM
félisten
AMD-nél is lehet olyat venni. Leginkább a Sapphire Vapor-X 290-ek, nagyon príma darabok, halkak, hűvösek gyárilag, remek minőségű cuccokból összerakva. Csaképpen nekem nem érte volna meg 94K helyett 130K-ért. Így inkább beáldoztam 5% sebességet. Biztos nagyon rosszul jártam, kőkemény 5% kompromisszummal.
(#6120) Szaby59: Véletlen se zavarjon, hogy a 290X-ek a jobban sikerült csipek. Nem véletlen van azonos TDP besorolása, mikor azon +50Mhz és +256shader van és a hozzá tartozó textúrázók is....
Semmi kivetnivalót nem látok abban, miért ne lehetne a gyári érték alatt hajtani egy kártyát 5%-al. Nem értem, mit olyan nehéz felfogni ezen. Ezt a gyengébb hűtésű típust kaptam meg igen jó áron, így nekem megérte.
De leírom mégegyszer: KAPNI OLYAN TÍPUST NORMÁL 290 ÁRON, AMIT NEM KELL ALULFESZELNI A HALK MŰKÖDÉSHEZ. Remélem így nagy betűkkel eljut a tudatodig.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Mondjuk ez érdekes cikk így. Elmondja, hogy mit támogat a rendszer és berakja a Caps Viewer képet, amiben "No" van odapörkölve két funkció mellé is.
Szerintem le kellett volna írnia, hogy a WHQL driverekben a Microsoft megtiltja a nem véglegesített funkciók támogatását, mert így a user csak azt látja, hogy nem támogatja.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
rocket
nagyúr
Pontosan az a lenyeg, hogy nem eleg innovativnak lenni, abbol profitalni kell, nehany kisebb reszsikert leszamitva nem volt meg az ATi-ban, es az AMD-ben sincs meg.
Mire teret nyer a low level API a Pascal foldbe dongoli a GCN-t, leaaratva a baberokat, mikozben a GCN2 6-9 honapra lesz
[ Szerkesztve ]
"A lower resolution generally means that there can be more quality per pixel."
-
#85552128
törölt tag
A 14/16nm-re váltás azért már önmagában elég kedvező dolog, de nem hinném, hogy az architektúrába mélyebben belenyúlnának. FIJI kb. feleennyi lenne méretre mint most, majd pakolgatnak bele pár magot és kész is az új csúcskártya, esetleg egy új GCN revízió, de több nem hiszem, hogy lenne. Eleve arra játszanak (legalábbis eddig), hogy a konzolok miatt előnyben lesznek.
[ Szerkesztve ]
-
nagyúr
Szerintem az teljesen rendben van, ha valaki erkölcsi meggyőződésből választ valamilyen terméket. Az már kevésbé van rendben, amikor ebből valamiféle erkölcsi felsőbbrendűséget próbál levezetni...
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Abu85
HÁZIGAZDA
Ezek közül minden csak a Mantle-ön érhető el. De a fontosabb dolgok ott vannak a DX12-ben és a Vulkan API-ban. Az FP16 biztosan. A stateless compute igazából egy automatikus hardveres fícsőr, ehhez nem kell külön támogatás. A fine-grained preemption egyelőre valóban nincs ott egyik szabvány API-ban sem, de a WDDM 2.0 fel van rá készítve, szóval bevethető. Sub-dword addressing és cross-lane ops az érkező OpenCL-en keresztül a Vulkan API-n át használható.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Az FP16-ot láttam. Azt nem tudom mennyire fogják használni, de bizonyos pufferek esetében felesleges FP32-ben dolgozni, mert nem hoz minőségelőnyt, viszont az FP16 eddig sok hardveren nem volt elérhető. Az Intel már megmutatta, hogy sokszor lényegesen előnyösebb az FP16, mert kétszeresére növeli az adott eljárásra levetített teljesítményt és csökkenti a fogyasztást.
A legnagyobb DX12-e fícsőrök egyébként nem ezek, hanem az async DMA/shader, a typed UAV loads, a resource heap lehetőségek, illetve ez a szép nevű:
VPAndRTArrayIndexFromAnyShaderFeedingRasterizerSupportedWithoutGSEmulation
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
#Morcosmedve
veterán
-
#85552128
törölt tag
Elvileg 79 az alap temperature limit vagy kitoltad ?
Nekem Dragon Age Inquistion alatt szokott felmenni a Strix 970 82-re, +50W-os Power Targettel és 86-os temp limittel (meg egy kis oc-val )
79 szerintem túl agresszív limit (jó egy ilyen giga g1 meg sem közelítené még a 70-et se, de akkor is).[ Szerkesztve ]
-
Locutus
veterán
Azt hogy csinálod? 80 fokon elvileg vissza is vesz, hogy ne melegedjen tovább, meg a venti is egyre jobban pörög.
Az enyém még sose ment 78-80 fok fölé, több óra után se.Komplett hangrendszerem eladó - https://hardverapro.hu/apro/mackie_studio_monitorok_mr5mk3_mr10s_mk3_sub_asus/hsz_1-50.html
-
-Solt-
veterán
Már ne haragudj, de aki az ismert sumákolás után még 970-t vesz úgy, hogy tud a dologról, az meg is érdemli, ha legközelebb valami még komolyabb sumákolással találja szemben magát! Ez egy üzenet a cégnek, hogy legközelebb is mehet a móka, úgyis veszik...
[ Szerkesztve ]
www.smart-bus.hu
-
m0h0senator
őstag
-
-Solt-
veterán
Ezzel én tisztában vagyok! Azokra gondoltam akik annak ellenére megveszik, hogy tudják mi az ábra!
A többség azt a kártyát veszi meg, amit a környezete (haver, xy játék fóruma, stb) sugall felé. Olyan kártya nincs, amin gond nélkül megy minden... olyan van, aminek a hibáit vagy észre sem vesszük, vagy olyan hibái vannak, ami nem zavar, nem érint minket, és ezért összességében elégedettek vagyunk vele.
A vízhűtés említése szerintem rossz példa... aki nem ért hozzá, annak az a komoly, erős, stb, amit már vízzel kell hűteni. Ezt a saját fülemmel halottam két konzol huszártól.
www.smart-bus.hu
-
#85552128
törölt tag
Pontosan, én a Dragon Age megjelenésekor vettem VGA-t, de eszembe sem jutott, hogy 290X legyen pedig AMD-s játék, de tudtam hogy csak a gond lenne belőle...
Utólag látva mennyit szívtak az AMD-sek vele jól döntöttem, teljesítmény szempontjából akkor kb. egyformán teljesítettek, de mostanra már szinte minden jobban fut 970-en mint 290X-en...[ Szerkesztve ]
-
-Solt-
veterán
És meg is mutatták, ott ahol a CPU a szűk keresztmetszet, pont ott segít. Jobban ez akkor fog megmutatkozni, amikor játékok az elejétől úgy lesznek megírva, hogy kihasználják a low-level api-k előnyeit. Például látótáv... amíg a BF4 is produkálja azt a durván 1km-t, addig felesleges összehasonlítani.
A DX11 korlátai évek óta megvannak. Ezt az tudja a legjobban, aki olyan játékkal szeretne játszani, ahol fontos a magas látótáv, és az ebből következő jóval magasabb objektum szám. (pl ArmA3)
(#6793) players111: És APU teszteken hozta is! Az elején megmondták, hogy a CPU limit feloldására szolgál, aki ennek ellenére GPU limites szituban vár tőle csodát, az így járt!
[ Szerkesztve ]
www.smart-bus.hu
-
HSM
félisten
Igen, ez igaz, csak egy dolgot hagysz figyelmen kívül. A Mantle mód a közvetlen irányíthatóságot biztosító egy képkockás prerendert használta, amivel azonos FPS mellett is sokkal közvetlenebb volt a játék irányítása.
Ehhez képest az Nv-nél 3 vagy 5 képkockás volt a prerender, AMD-n DX-ben pedig 3, és ez igencsak érződött.
Ezt az FPS-ben nem mérhető hatalmas előnyt is érdemes lenne hozzászámolni a Mantle eredményeihez.
Másfelől az sem figyelmen kívül hagyandó, hogy a BF4 még DX11-re íródott, nem Mantle-re, az csak egy kiegészítőként tették bele, nem az volt a fő prioritás, tehát alapból nem volt a játékban semmi olyan, amivel a DX11 ne tudott volna elboldogulni. Inkább ennek és az 1-es prerendernek köszönhető, hogy az Nv tudta hozni a szintet FPS-ben DX alatt.[ Szerkesztve ]
-
HSM
félisten
Nem tudom, de nekem gyanúsabb a monitorod. Azok nagyon meg tudják nyújtani alapból az input lagot. Nálam egy Dell P2414H volt, ami 72hz-en ment, aminek a pixelek színváltási idejével együtt is csak 5,5ms a válaszideje. [link]
Egy lassabb monitoron ez 20-40ms is lehet önmagában, ráadásul a legtöbb monitor csak 60hz-es.(#6819) daveoff: Kösz, notebookról... Bizonyítsd inkább be Te, hogy működik, neked ott a gépedben minden.
(#6820) sayinpety: Én éppen erre gondoltam, hogy elég sanszos, hogy emiatt a legtöbben nem fognak csak a Keplerhez külön codepath-t írni. A regiszter allokáció romlása a friss driverben csak hab a tortán.
[ Szerkesztve ]
-
kovsol
titán
Egyébként meg kint vannak az új konzolok most már 1,5 éve és még mindig azt mondják nincs maximálisan kihasználva a hardver. Innentől fogva ha a fix hardverre ennyi időbe telik az optimalizálás megtanulása, akkor ki fog majd szenvedni az évente jövő új PC-s kártyákkal? Meg mindenki szidja az NV-t a GW miatt, de azt se kötelező használni nemde? Na most ha nem írnak maguknak saját effekteket a programozók, akkor el tudjátok képzelni, hogy most majd teljes mélyreható hardverre optimalizált játékokat kapunk? Én egy pici esélyt se látok.
Persze lesz majd javulás a DX12-vel, de én a becslések esetén a minimum értékekre számítók, nem a maxra.[ Szerkesztve ]
May the Force be with you!
-
HSM
félisten
Még azért ott is van hova fejlődni. Szoftveresen, és programok terén is.
(#7507) daveoff: Én nem tudok Mantle-re fejlesztett, boltban kapható játékot. Csak olyat, ami kapott egy kiegészítést hozzá, de alapvetően DX11-re fejlesztett motor. Nem is fog senki kiadni ilyesmit, amíg az Nv-vel nincs DX12 vagy Vulcan mód.
A DX12-nek állatira nem lesz olyan hosszú felfutása, mint a korábbi API-knak, mivel ahogy nemrég írta a fórumtárs, már a Mantle-vel másfél éve folyik a felszín kapargatása, így sokkal hamarabb érkezni fognak a valódi DX12 alkalmazások, mint a korábbi API-k esetében tapasztalható volt.(#7508) Milka 78:Mindketten pontatlanul emlékeztünk: "Vannak egyébként erről DX12-es tesztek már, mert az AMD készített rá az SDK-ba egy példaprogramot. Ott a GCN1 nagyjából +15-25%-ot hoz. A GCN2/3 +35-45%-ot. A Maxwell 2 +5-15%-ot. "[link]
-
Abu85
HÁZIGAZDA
Azt nincs értelme kivásárolni, mert akkor csak dedikált GPU-ként használható. A dedikált GPU-k eladásai éves szinten folyamatosan esnek, és ez már öngerjesztő, mert azért emelkednek az árak és lassul a generációváltás, hogy a visszaesést kompenzálják, ami újabb visszaeséshez vezet, ami újabb áremelést von maga után kompenzálás céljából, és így megy majd tovább addig, amikor már nem éri meg fejleszteni sem erre a piacra. Senki sem fog egy olyan piacra vásárolni, amelyiknek a jövője gyakorlatilag borítékolhatóan borús.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A dedikált GPU-k jövője egyértelműen az Inteltől függ. Nekik lejár az FTC-vel kényszerítése idén szeptemberben, amely arra kötelezte őket, hogy a dedikált GPU-knak x16-os PCI Express csatolót kell biztosítani. Nyilván ez nem kedvezett az Intel terveinek, de a hatóság szava döntött. Ez 2010 augusztusa óta ismert volt. A piac szereplői 5 évet kaptak a saját lábra állásra. Szeptembertől kezdve az Intel jóakaratától függ, hogy létezhetnek-e vagy sem.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
gtamate2
veterán
Hát igen, mondjuk a kezdeti árnak betudható az a 80$, viszont szomorú hogy még csak most sikerült válaszolni, az nvidia pedig lassan kidobja a következő szériát, nagyon sok volt ez a késés.
Abunak pedig igaza lett, nem lesz már olcsóbb az amd, mint régen. Pedig reménykedtem hogy ha belövik azonos teljesítményre akkor faragnak az áron hogy megérje, bár biztos nem olcsó ezeket a kártyákat gyártani lehet ez is benne van az árképzésben.
Az az igazság hogy most azokat sikerült csak meggyőzni akik amd pártiak és vártak a 980 alternatívájára amd fronton, viszont nem alkottak best buy kártyát, így a 980 jelenleg jobb vétel még.*Sn0w
-
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.