- Szabadulnak a kínai eszközöktől az amerikai szolgáltatók, de ez sokba kerül
- Irányíthat-e atomfegyvereket az AI?
- 5 év alatt 100 milliárd dollárt költött fejlesztésre az Apple, az AI a következő
- Az Insta360 ellen fordítja a hatóságokat a GoPro
- Sokat fogyaszt az AI, egyre több az adatközpont, kell az atomenergia
Új hozzászólás Aktív témák
-
leviske
veterán
válasz actival63 #46 üzenetére
Ilyen feleslegesen provokatív hozzászólásokat kár bedobni. Az nVidia-nál se hülyék dolgoznak, már a Maxwell utódjának számító Volta fejlesztésének kezdetén tisztában lehettek azzal, hogy mekkora hatása lesz az új API-k megalkotására a konzoloknak és a Mantle-nek. Szóval én nem volnék meglepődve, ha már 2016-ban se szorulna a cég egyik friss/akkor megjelenő GPU-ja se emulálásra.
Arról nem is beszélve, hogy még azt se láttuk, hogy a Fiji/Tonga/Wani kivételével mégis milyen minőségben fognak futni a jelenleg piacon lévő GCN kártyákon az új játékok.
Szóval ez a hergelés teljesen felesleges.
[ Szerkesztve ]
-
Szeszkazán
senior tag
Ez így van, de azért azt nem lehet figyelmen kívül hagyni , ha valaki hosszú évek óta csiszolgat és használ egy olyan archit amire épült a dx12 meg a többi jóság , vagy csinálni kell egy sajátot ami megfelel annak. NV-t ismerve sokat lop a megoldásokból, de próbál majd beletenni egyedi dolgokat , kisérletezni fog , lesz különbség azért és kiderül majd pozitív vagy negatív irányban. Papír forma szerint 1-2 évig erős amd előnyne kellene jönnie.
-
actival63
aktív tag
Bocsánat most én is azt csinálom mint amiért utálok néha ide jönni. Mennyivel jobb lenne ha arról beszélnénk, hogy a Pascal már GCN szintű architektúrával jön vagy csak egy felturbózott Maxwell lesz és amit nem támogat hardverből azt megoldja erőből.
Phenom II X4 B97, 3200 MHz. ATI Radeon HD 4200
-
#06658560
törölt tag
Pont ahova ezt az APU-t szánják, ott lenne értelme: itt megéri a szoftverfejlesztésbe is invesztálni, mert gyorsul annyit a specifikus kód.
Ami viszont korlátozhatja: a fix "RAM" mennyiség, és a fogyasztás, hőtermelés.
[TROLL] A zöldek nélkül már nem tudnak maguknak memóriát sem tervezni? [/TROLL]
-
SylverR
senior tag
válasz #06658560 #60 üzenetére
Így van, sem temetni, sem ódákat zengeni nem szabad. Sajnos a szoftver fejlesztőkön fog múlni minden, hiába van hardverileg előnye az AMD-nek. Esélyes, hogy a programozók nem akarják majd azt, hogy az AMD-n valami kétszer gyorsabban fusson, esetleg kétszer szebb legyen, mert akkor csak kapnák a hideget-meleget, hogy AMD-pártiak, és direktbe lassítanak.
Nem!
-
#06658560
törölt tag
"Esélyes, hogy a programozók nem akarják majd azt, hogy az AMD-n valami kétszer gyorsabban fusson, esetleg kétszer szebb legyen, mert akkor csak kapnák a hideget-meleget, hogy AMD-pártiak, és direktbe lassítanak."
Inkább racionális döntést hoznak: megnézik a piac helyzetét, mire is kell terméket írniuk, felmérik mennyi energia a megcélzott architektúrákat optimalizálni kicsit, mennyi idejük van, aztán valamit majd dob a gép.
-
Sinesol
veterán
válasz #32839680 #66 üzenetére
Nem valószínű hogy jelentősen gyorsabb lesz, maximum cpu limites környezetben lesz nagyobb ugrás.
Amúgysem érdeke az AMD-nek sem, hogy lényegesen gyorsabb legyen.A legtöbb pénzt azzal lehet kihozni, ha épp konkurencia szintre lövik be a dolgokat, a pluszt ami van, azt meg beosztják a jövőre. Így ugy tudnak uj vga-t kiadni, hogy alig kell pént tolni fejlesztésbe.
Mindkét gyártónak az az érdeke, hogy kb ugyanazt az erőszintet lőjék be, ez megy már egy évtizede.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz #32839680 #57 üzenetére
A architektúra leváltása most nagyon rossz lenne. Egyrészt úgy alakult minden, ahogy azt akarták. Az MS és a Khronos elfogadta azokat a reformokat, amelyekért kampányoltak. Nem csak egyet, hanem mindegyiket. Másrészt ezeknek a reformoknak egy kevésbé hangoztatott hátránya, hogy ismernie kell a hardvert a programfejlesztőnek, hogy bele tudja írni az alkalmazásba a megfelelő vezérlést. A GCN-t a konzolok miatt biztosan ismeri mindenki, ha most hoznak egy újat, akkor újra kell tanulni mindent. Ez jelentős tehet, amit sokan nem fognak megtenni. A hardverfejlesztés ilyen irány mellett lelassul, mert hátrányos lesz architektúrát váltani. Egyszerűen hiába hozod az elméletben másfélszer gyorsabb hardvert, az optimalizáció hiánya miatt nem lesz gyorsabb az elődnél.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Raysen623
addikt
válasz #32839680 #58 üzenetére
Az NV energiahatékonysága adott funkció beáldozásán alapszik az architektúrában (compute ha jól emlékszem), amit az AMD nem vett ki és ezért is van különbség a fogyasztásban. A kérdés az, vajon ez az áldozat mit fog hozni az új API-k eljövetelével. Aszinkron compute-ban az AMD jelenleg erősebb, márpedig erre bizony hajazni fog a DX12 is.
Én azt látom elképzelhetőnek, hogy NV ezt visszapakolja és lemegy a csíkszélességgel a pirosakkal együtt. Így kerülnek majd balanszba fogyasztás terén, onnantól kezdve pedig már az architektúra dönt majd a győztes kilétéről. Majd elválik...A MÁV-nak öt ellensége van: a négy évszak, meg az utasok.
-
Ren Hoek
veterán
Fejlesztőként én biztosan a 80%-os NV kártyarészesedésre alapoznék nagy címeknél. A fél karomat rá, hogy jön az egyedi Nitrous, szanaszét veri a Maxwelleket benne a Hawaii/Fury (Tongában már nem vagyok olyan biztos, mert annak is "szívószál" a sávszéle) - persze ez a legoptimistább AMD-s előrejelzés, mert NV-nél is gőzerővel dolgoznak a Nitrouson... és jelenleg ez lesz a legextrémebb DX12 vonulat ami GCN-re épül kb.
Ezen felül meg majd jönnek szépen a nagy címek, és Pascalig ugyan úgy fog menni Maxwell és GCN is ahogy eddig...Egyébként az is egy variáció, hogy mindkét gyártó sokat fog gyorsulni, és simán meglesznek 60 FPS-es smooth értékek, NV-n esetleg picit több CPU szotyizással a bind miatt. (de így is annyi CPU terhet vesz le a DX12, hogy belefér ez az emuláció) ..nahát GCN-en meg ugyan az 80 FPS-t megy majd. Hát gratulálok nekik viszont én elpüttyögök 60 FPS-el VSync-el a Maxwellemen... és emiatt, vagy a spec Nitrous RTS játékok miatt nem fogok cserélni, mert még itt van 100 DX11 játék amiben meg tök jól megy kis fogyasztással. Szerintem a 80% nv user így gondolkozik.
[ Szerkesztve ]
-
Sinesol
veterán
Épp igy gondolom én is, olyan komolyabban DX12 optimalizalt játék nem mostanában jön, a dx11 alatt meg ugyanolyan jó mindkettő. Mire meg itt a Dx12 Kánaán addigra zöldeknek is meglesz a megfelelő architektura, szóval nem lesz itt semmi előny egyik oldalon se.
A GCN meg amilyen világmegváltó architektura, ahhoz képest még sose volt előnye játékok alatt a sok év alatt. A Maxwell is azért foglalkozhat a fogyasztással, mert már a Kepler is elég volt a GCN ellen.
[ Szerkesztve ]
-
ukornel
aktív tag
válasz #32839680 #58 üzenetére
Az AMD a GCN következőrevíziójánál elvileg az energiahatékonyságra megy rá; ezen a dián épp 2x-es növekedést ígérnek ezen a téren. Ebben nyilván vastagon benne van a gyártástechnológiai előrelépés (28nm -> 14nm FinFET) is, de biztosan lesznek olyan architekturális módosítások is, amiket az elavuló 28nm bulkon már nem volt érdemes véghezvinni. Gondolom, a GCN eddig meglevő előnyeit sem akarják sutba dobni; valami A-57 -> A72 jellegű fejlesztésre gondolok, mintsem Fermi/Kepler -> Maxwell szerű "specializációra".
-
Sinesol
veterán
válasz #32839680 #76 üzenetére
A multiplatform játékok sima DX12-t használnak konzolon is, szóval nem fognak lemenni az igazán hardverspecifikus elemekig. A sima DX12 lényege épp az hogy mindenen jól menjen, mégis ki lenne olyan buta, hogy a piac töredékére fejleszt?
A komolyabb hardverspecifikus api, az a Dx12 mono, azzal viszont csak exkluzivok készülnek, szal Pc szempontjabol tökmind1.
Egyébként ne Maxwellben gondolkodjatok már, a Maxwell már kifut, mire lesznek rendes Dx12 játékok.
-
csib41
aktív tag
Sajnos a szoftver fejlesztőkön fog múlni minden, hiába van hardverileg előnye az AMD-nek.
Ha ki is aknázzák az architektúrából származó többletteljesítményt, remélem nem olyan szemmel alig látható/kivehető effektekre pazarolják amivel az fps szám közel azonos lesz, ezzel elindítva egy újabb hisztirohamot.
Esélyes, hogy a programozók nem akarják majd azt, hogy az AMD-n valami kétszer gyorsabban fusson, esetleg kétszer szebb legyen, mert akkor csak kapnák a hideget-meleget, hogy AMD-pártiak, és direktbe lassítanak.
Cserébe állva tapsolunk az "zöld címekért", "a nem látható szimulációkért" vagy "a pálya legtöbb részét tartalmazó önreklámért".
-
Ren Hoek
veterán
válasz #32839680 #76 üzenetére
"Értelmes fejlesztő nem csinál ilyet, megírja jól kihasználva a hardvereket,"
Igen megcsinálja nv hardverekre (is), mert az A hardver. Sajnos a számok nem hazudnak, én el se hittem ezt a 80%-os dolgot, azt hittem valami zöld troll duma... és akkor vegyük ide, hogy nagyon sokaknak még amúgy is régebbi GCN van, vagy régebbi nv, ami meg még nem is async a táblázat szerint. Vajon akkor hány DX12-es gép van, amin a kódod értelmesen futna? Maxwell2 amúgy még eléggé jól fel van szerelve szerintem. Tiled resourcesből pl TIER3, a legújabb GCN meg TIER2. Ez az egész TIER2 bekötés is a fene tudja majd mennyit fog számítani... de úgy tudom minimális prociigénye lesz. Ami meg tudja fingatni a Maxwelleket az a durva async lehet. Azt viszont nehezen tudom elképzelni, hogy átlag sztoris FPS DX12 játékban ezt miért is kéne annyira erőltetni egyelőre? Agyonhypolt effektek? Nitrous-nál még abszolút megértem a sok egység és szim/fényforrások/AI miatt. Na erre nem igazán tud senki válaszolni még.
Szoftveresen persze ez egy tökre előremutató dolog, csak jelenleg nincs felkészülve rá a piac... de majd pár hét múlva kiderül az AOTS-nál. Mondjuk ha Maxwell2 is képes futtatni legalább 60 FPS-el FHD-n, akkor nagyot fogok nevetni Ha ehhez még jön az, hogy pl egy Tonga is képes 60 FPS-re, illetve egy Hawaii meg 120-ra, ettől még a Maxwell2-t nem lesz érdemes cserélni. Ennél az összes többi DX12 csak lájtosabb lesz konzol szintű async kihasználtsággal.
Egyes egyedül csak a játszhatóság lesz a lényeges DX12 alatt, akkor meg teljesen mindegy, hogy valamin 200 FPS-el megy, valamin meg 60-al.
-
Raysen623
addikt
Érdekes mód ezidáig a 200fps is kevés volt a zöldeknek, most hirtelen elegendő lenne a 60 is? Komolyan nem tudom sírjak e vagy nevessek ezen... Mikor tanultok meg objektívan gondolkodni és kilépni a kivagyiság szánalmas árnyékából?! Egy átlag játékos 30-60 fps között játszik, ti meg azon vitáztok vajon a 150fps a jobb vagy a 170! Igazából azon a szinten már kurwára mindegy, mert mindkettő rohadt gyors egy átlagos halandónak, aki nem az fps-eket hajkurássza hanem próbál a lehető legjobb és legszebb grafikával játszani csupán a játékélményért.
Már elkezded gyártani a prekoncepcióidat szimpla önigazolásként, de én már most megmondom neked, hogy mindkét kártyán jól fog futni ugyanaz a game, és remélhetőleg 60 fps környékén stabilan egy medium config alatt.A MÁV-nak öt ellensége van: a négy évszak, meg az utasok.
-
SylverR
senior tag
De én nem arról beszélek, hogy nem optimalizálnak rá, hanem arról, hogy nem használják ki a technológia lehetőségeit. Mármint a natív kódra gondolok. A Crysis 1 sem volt valódi DX10 alkotás, hanem egy DX7-es kódba (CryEngine 1) beleszőtt DX9-es renderer (shaderek), melyekhez hozzáadtak pár DX10-es efektet.
Szerencsére most nem fog tudni minden jött-ment új engine-t írni, mivel natívan kell majd kódolni. Van már egy csomó engine, amik már natívan támogatják majd. Aki meg nem tud, vagy nem akar új engine-t írni, az meg megveszi valamelyiket.
"Sajnos a számok nem hazudnak, én el se hittem ezt a 80%-os dolgot, azt hittem valami zöld troll duma..."
Én nem mondom, hogy nem igaz. De nem ismerek személyesen nVidia tulajt.[ Szerkesztve ]
Nem!
-
Ren Hoek
veterán
válasz Raysen623 #83 üzenetére
Ember, olvastad mit írtam? Szövegértés 1-es! Pont ezt mondom én is, hogy mindegyik kártyán jól fognak futni az első fecskék. Kivétel a Nitrous, mert az egy kemény dió. Elvileg a Maxwelleknek már nem fekszik annyira a 10 async pipeline, már ha a végleges annyit fog használni. Itt azon van a kérdés, hogy játszhatóság szempontjából hol lesz a "treshold". Abu szerint a 10 pipeline már negyedére is visszaveheti a tempót. Kérdés, hogy minek a negyedét vesszük.
"Mikor tanultok meg objektívan gondolkodni és kilépni a kivagyiság szánalmas árnyékából?! "
Már bocs, de a legnagyobb böszmeség valakit beskatulyázni zöldnek és általánosítani : Hol vagyok én zöld? Cserélgetek piros és zöld között már ősidők óta, amelyik épp kedvemre való. Sosem mondtam ilyet, bizonyos játékokban nekem a 30 FPS konstans is teljesen oké - a 60 Hz-es szinkron a lényeg.
Itt a hangsúly azon van, hogy a legbrutálabb DX12 játékban hogy fog szerepelni, egy technológiailag nem erre épített hw. Ha a vörösök által agyonszidott buta Maxwell2-n is játszhatóan, GCN-en meg ultrabrutál jól, az win-win. Nekem jó, mert nem kell cserélni, nektek meg azért jó mert lehet vörösszegfűs tüzijátékos kampánypartit csinálni, hogy IGEN-IGEN megmondtuk zöld rüszügyíkok (Troll off)
Amúgy meg egy oldalon állunk, csak játszani szeretnénk értelmes FPS-el, szép grafikát.(#85) SylverR: Szerintem a DX12 annyira új és annyira más, hogy nem lehet hasonlítani a korábbi API váltásokhoz. Nincs is értelme. Abban igazad van viszont, hogy a nagyrészét nem fogják használni az újdonságoknak - de alapjaiban az egész újdonság nulláról van kezdve kb.
[ Szerkesztve ]
-
Raysen623
addikt
Olvastam amit írtál, csak nem voltál eléggé precíz ami a megfogalmazást illeti. Legalábbis eléggé gúnyosra sikeredett elsőre. Mivel második nekifutásra már érthetőbb lettél, ezért természetesen visszavonom a korábbiakat. Rendben vagyunk így?
Egyébként meg nekem nincs GCN Radeonom jelenleg, így én nem sokat fogok tudni profitálni az új API-ból véleményem szerint...
A MÁV-nak öt ellensége van: a négy évszak, meg az utasok.
-
Ren Hoek
veterán
válasz Raysen623 #88 üzenetére
Engem technológiailag lenyűgözne hogyha a GCN ekkorát gyorsulna a Nitroban. Köv kártya szerintem Fury Pro lesz... ha beesik jól az áruk. Bár amilyen ratyi a forint és amennyire nem mennek le a kártyák árai erősen kétlem, hogy a közeljövőben 120K körül lenne. Annyinál többet soha nem adnék VGA-ért.
Illetve még arra leszek nagyon kíváncsi, hogy az APU-k hogyan fognak menni DX12 alatt, főleg hogy azokon megy az IOMMU címzés. Mondjuk a legerősebb AMD APU + Fury X.
-
Raysen623
addikt
Ezekre én is kiváncsi leszek, és remélem lesz 8 magos APU is a jövőben Viszont VGA-ért nálam 60k a plafon. Egyszer vettem 80k-ért egyet, de 3 hónap után páros lábbal rúgtam ki a gépemből mert lassú volt és gyenge, a meleget meg ontotta magából.
A MÁV-nak öt ellensége van: a négy évszak, meg az utasok.
-
Dr. Akula
nagyúr
"a többiek váltanak architektúrát, hogy elkerüljék a többletterhelést, és meglegyen a pure bindless működés a hardverben"
Ez mikor fog a valóságban is megjelenni, játékoknál? A Mantle is mióta létezik, de alig van ami támogatja. A játékfejlesztők se nagyon kapkodnak olyan technológiákért amivel csak a piac 50%-át érhetik el maximum. És egyáltalán átfordíthatja ez a Fury hátrányát a 980Ti-vel szemben előnnyé? Mármint gyakorlati előnnyé. -
Raysen623
addikt
válasz Dr. Akula #92 üzenetére
Azt mindig elfelejtitek, hogy a Mantle egy PC oldali lökés volt az iparágban a változás irányába (mivel a DX11 egyszerűen nem volt igazán megfelelő a GCN féle architektúrának), míg a DX12 egy egységes (most nem beszélünk a Mantle féle hasonlóságokról) API amit eleve használnak, illetve annak egy mono verzióját használják a konzolok esetén. Na mármost mivel a konzol oldali játékfejlesztések fedik le a piac nagyobb részét (hiába van több PC, a bevételek nagyobb része konzolon történik), ezért a fejlesztőket nem az fogja érdekelni kinek milyen hardvere van PC oldalon, hanem az hogy mennyivel egyszerűsödik a munkája a portolásoknál és ezzel mennyi költséget tud megtakarítani. Nem kevés pénzbe kerül egy AAA kategóriás multiplatformos játék. A PC-s portok minősége eddig sem volt túl jó (eltekintve némi egyedi esettől), de attól még a költségvonzata ott van.
[ Szerkesztve ]
A MÁV-nak öt ellensége van: a négy évszak, meg az utasok.
-
Petykemano
veterán
Nem vagyok szakértője a témának, csak olvastam a S|A-en, Juanrga felhasználó véleményét, hogy ez nem lehet sem zen, sem zen+, se hbm2, se arctic islands, mert ha ilyen készül, valószínűleg inkább 2018-2020 között készül el.
Egy gondolat a csúcsteljesítményről. Megintcsak nemvagyik szakértője, de a gyorsítókártyák működését úgy tudom elképzelni, Hogy a futó program összeállít egy csomagot, átadja a gyorsítónak, az kiszámolja és visszaadja az eredményt. Azért így rendesen ki kell találni, hogy mi és mekkora legyen a csomag, amit megéri átadni.
Egy ilyen giga apu esetén az tud lenni a giga előny, hogy nem csak másolni nem kell, (márpedig biztos előfordul egy-egy nem annyira komplex, de jól párhuzamosítható , de nagy tárhelyen végzett feladat, amit nem a feladat jellege, hanem mérete miatt nem toltak ki a gyorsítóra.), de csomagokat előre összekészíteni se. Csak a vezérlést kell átadni úgymond. Vajon mekkora potenciál rejlik abban, hogy nem kell mérlegelni, hogy megéri-e kiküldeni a gyorsítóra, hanem minden programrész a legoptmilálisabb módon tud futni: párhutamosítva jól, vagy single thread magas órajelen.Engem az érdekelne, hogy a facebookkal mi van? Nekik pont egy ilyen apu kellett a MySQL és a Memcache futtatásához. Szerintem Egyébként a megszivárogtatott 200w-os apu inkább az, ami nekik készül, ha készül, mint ez az exascale monstrum
Találgatunk, aztán majd úgyis kiderül..
-
#06658560
törölt tag
Nem azért nem használják ki a hardvert, mert a másikat akarják helyzetbe hozni, hanem mert nincs kapacitásuk -pénzben, emberben, időben- optimalizálni mindenre, és egy közös nevezőt keresnek, ami mindenen vállalhatóan fut. Ugyanis mennyi variáció létezik csak most csak GPU-ból? E mellé teheted a MultiGPU-t, a procik széles skáláját, memóriavariációkat, és gyakorlatilag oda jutsz, végtelen idő mindenre optimalizálni. Arról ne is beszéljünk, hogy az AMD GCN is káosz, ami a DX12 egyes funkcióinak Tier szintjeit illeti.
Az pedig nem fog működni, hogy egyetlen architektúrára optimalizálnak, a többit hagyják alapon, mert akkor a játékosok felől olyan anyázászuhanyt kapnak, hogy akár a rolót is le lehet húzni utána.
-
Abu85
HÁZIGAZDA
válasz Dr. Akula #92 üzenetére
Amelyik szint meg van szabva a WARP-ban, arra kell mindent csinálni, mert onnan képes a rendszer skálázni. A bekötési modellnél ez úgy néz ki, hogy TIER_3-nak megfelelő kell írni a motor erőforrás-menedzsmentjét, és onnan az API már kezelni tudja a TIER_2 és TIER_1 bekötéseket a programkód módosítása nélkül.
Az effektekkel sincs probléma. A DX12-ben nem lehet szállítani programot validálás nélkül. Tehát ezt a végső kódon a fejlesztők lefuttatják. Az AMD validátorát a Microsoft kiegészítette egy korlátozó modullal, amely leszámolja, hogy az adott programkód mennyi erőforrást használ és képes már úgy validálni a programot, hogy az effektek egy részét automatikusan tiltja a gyengébb bekötési szinteken, amelyek ugye nem férnek bele az erőforráslimitekbe.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Dr. Akula
nagyúr
Oké hogy a lehetőség adott, de van is valami reális esély hogy ez a valóságban is megjelenjen? Eddig se sietett az Nvidia az AMD-hez igazodni, a játékfejlesztők se. Persze a fejlesztők az Nvida only technológiákra se mozdulnak rá nagyon, pl. PhysX, az is inkább csak techdemó, mint a Mantle. Jellemzően eddig is az AMD vette csont nélkül az akadályokat, az Nvidia kártyáknak készült a könnyített TIER akárhány, de a fejlesztők is csak ezt a könnyített szintet célozták meg, mert ez mindenkinél futni fog, kár olyanba ölni az energiát ami úgyse lesz kihasználva.
Szóval van most valami ami kikényszerítené a DX12 miatt az architektúra váltást az Nvidiánál? Gyengébb lesz ott a jelenlegi csúcskártyájuk (980Ti) az AMD-nél (FuryX)? Mert most épp fordított a helyzet. Nem sokkal van lemaradva, de ugyanannyi pénzért -10% teljesítmény nem nagy perspektíva, legalább ennyivel olcsóbb is lehetne.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz Dr. Akula #97 üzenetére
Nem a lehetőség adott, hanem így kell programozni a DX12-ben. Ha nem így csinálják, akkor nincs garancia arra, hogy működni fog a program.
Egyébként a legtöbb fejlesztő úgy fog dolgozni, hogy megírják az Xbox One kódot és azt áthozzák egy az egyben PC-re. Nem a legjobb modell, de olcsó(tm), és pont ezért van így megoldva a validátor, hogy az egyes effekteket a validálás alapján tiltsa a nem megfelelő hardvereken. A fejlesztőnek ez csak két kattintás, és mehet ki a PC-s port. Persze bárkinek lehetőség van alternatív eljárásokat keresni, hogy ne kelljen kikapcsolni az effekteket, szóval az is megtalálja a számítását, aki nem az olcsó(tm) jegyében portol.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
#06658560
törölt tag
-
Abu85
HÁZIGAZDA
válasz #06658560 #99 üzenetére
Igen. Az AMD validátora így működik, és a Microsoft ezt a rendszert használja a DX12-ben. Ez a validátor nem fogja validálni azt a kódot, amelyet nem szabványosan írsz meg, vagyis nem a maximális bekötési szintre dolgozol. Maga a validátor nem tudja értelmezni a pure bindless memória hozzáférés nélküli shadereket. Ki fog lépni egy nem WARP-kompatibilis shader hibával.
Azt nem tudom, hogy a Microsoft megengedi-e a nem validált program szállítását. Valószínűleg nem, mert az veszélyes az OS-re.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
- Végre Steamre tart a Sins of a Solar Empire II
- Redmi Note 13 Pro+ - a fejlődés íve
- Vezeték nélküli fülhallgatók
- Robogó, kismotor
- Milyen autót vegyek?
- Redmi Note 12 Pro - nem tolták túl
- Kertészet, mezőgazdaság topik
- LG C3: egy középkategóriás OLED tévé tesztje
- GoodSpeed: Windows 11 PRO FPP (Full Packaged Product) - Retail, Box, dobozos
- Ukrajnai háború
- További aktív témák...
- Intel I7 13700K 16mag/24szál - Új, Tesztelt - Eladó! 128.000.-
- Beszámítás! Intel Core i3 10105 4 mag 8 szál processzor garanciával hibátlan működéssel
- Beszámítás! Intel Core i3 9100 4 mag 4 szál processzor garanciával hibátlan működéssel
- i5-8500
- Intel I5 14600K 14mag/20szál - Új, Tesztelt - Eladó! 99.000.-
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: Ozeki Kft.
Város: Debrecen