- SkyShowtime
- Hálózati / IP kamera
- Sokat fogyaszt az AI, egyre több az adatközpont, kell az atomenergia
- WLAN, WiFi, vezeték nélküli hálózat
- Az iPadOS-re írt appokra is díjat vet ki az Apple
- Facebook és Messenger
- Aliexpress tapasztalatok
- Letartóztatták a bitcoin-Jézust
- Crypto Trade
- Telekom otthoni szolgáltatások (TV, internet, telefon)
Új hozzászólás Aktív témák
-
atti_2010
nagyúr
válasz Angel1981 #151 üzenetére
Ahhoz hogy fent tudjon tartani akkora gyárakat folyamatosan termelnie kell de nekik nem volt annyi melójuk, megoldhatták volna hogy a GPU gyártást is ők végezzék de ahhoz meg gépeket kellett volna vásárolni viszont abban az időben nagyon el voltak adósodva és vitték a bankok a pénzt zsákszámra, mint most a Magyarországtól, így el kellett adni.
[ Szerkesztve ]
1.Asrock FM2A88X+ Killer,A10-5800K,Kingston 2x4Gb 2400Mhz,Int X25-V SSD,SF Pro S.F.-450P14XE. 2.MSI-A75A-G55,A8-3870, Kingston 2x2GB2000, MSI R9-270, Zen 400.
-
Angel1981
veterán
Ez a dark silicon nekem valahogy nem kerek!
Ha egy tranzisztor kisebb, kevesebb atomból áll, tehát a működtetéshez is kevesebb áram fog kelleni.
Szerintem az Intel túlmisztifikálja ezt az egészet, hogy ne legyen olyan furcsa, hogy ő is beáll a heterogén érát támogatók sorába.
Arról van szó, hogy felesleges a magok számát ilyen tempóban növelni, mert a programozóknak egyre nehezebb dolguk lesz velük kapcsolatban.
Ismét szemléletváltásra van szükség, mint anno a Netburstnél, amikor végre nagy nehezen belátták, hogy nem lehet a frekvenciát tovább növeli gazdaságos mértékben.
Akkor persze egyből a magok növelését látták gyakorlatilag egyetlen, és "ultimate" megoldásnak. Most már ez sem folytatható, váltani kell, csak alibiből előjöttek ezzel a "dark silicon"-nal, mintha ez kényszerítené rá őket a váltásra...
A DS természetesen létező jelenség, de mint mondtam ,az Intel túlmisztifikálja - ez személyes véleményem![ Szerkesztve ]
-
atti_2010
nagyúr
válasz Angel1981 #155 üzenetére
Ismét szemléletváltásra van szükség, mint anno a Netburstnél, amikor végre nagy nehezen belátták, hogy nem lehet a frekvenciát tovább növeli gazdaságos mértékben.
Igen de ehhez az Intelnek is be kellene lássa hogy értelmetlenné vált a "maggyártás" de ők az ellenkezőjét teszik, nyilvánvaló hogy miért.
1.Asrock FM2A88X+ Killer,A10-5800K,Kingston 2x4Gb 2400Mhz,Int X25-V SSD,SF Pro S.F.-450P14XE. 2.MSI-A75A-G55,A8-3870, Kingston 2x2GB2000, MSI R9-270, Zen 400.
-
-
cqr
aktív tag
válasz Angel1981 #155 üzenetére
Ha egy tranzisztor kisebb, kevesebb atomból áll, tehát a működtetéshez is kevesebb áram fog kelleni.
Nem tudom, hogy tanultál-e mikro/nanoelektronikát, de a teljesség igénye nélkül talán inkább így érdemes elképzelni : a mos karakterisztikánál egy adott fesz kényszert feltételezve az átfolyó áram a fizikai méreteket tekintve elsődlegesen a W/L aránytól függ. Hiába szélesebb a nagyobb, 'több atomból' álló tranzisztor (ezáltal javítva a vezetőképességet), arányosan hosszabb is, így kb. (a kb. hangsúlyos : ) hasonló áram fog folyni a nagyon, mint a kicsin (a kicsiből viszont több fér el, növelve az adott területre eső fogyasztást.)
Természetesen számít a méret, messze nem lineáris a kapcsolat, rengeteg másodlagos, harmadlagos hatásnál is figyelembe kellene venni. (Illetve egy CMOS kapcsolásnál persze nem csak az egymásba vezetésből származik a fogyasztás.)
[ Szerkesztve ]
-
Angel1981
veterán
Ok, ebben van igazság, de:
"a kicsiből viszont több fér el, növelve az adott területre eső fogyasztást"
Az első mikrochipet 10 mikrométeren, vagyis 10.000 nm-en gyártották.
Mostanság már vannak kísérleti, 10 nm-es gyártósorok, vagyis adott területre 1000^2-en, vagyis kb. 1 milliószor több tranzisztort tudnak bezsúfolni.
Ha a fogyasztás nem csökkenne; már rég MW-okat fogyasztó chipek lennének.
Az Intel 2009 őszén, az IDF-en büszkén demonstrálta a 22 nm-es gyártástechnológiáját, és ott magyarázta, hogy adott tranyóra viszonyítva mennyivel csökken a fogyasztás a 32 nm-hez képest...
Nem ez az első eset, hogy egy cég ellentmondásba keveredik önmagával, mert marketing szempontból előnyösebb neki hol ezt, hol azt mondania...
Kicsit olyan érzésem van, mint pl. anno a Sony esetében, amikor a PS3 debütálásakor arról beszélt, hogy azért nincs rezgő funkció a kontrollerekben, mert "nem tudták megoldani", hogy egyszerre rezegjen, és legyen tartásérzékeny, holott szabadalmi vita volt a háttérben, és aki józan ésszel belegondolt, már akkor tudta, hogy hülyeségeket beszélnek, vagy keményebben fogalmazva; hazudnak!A DS, mint írtam, valóban létező jelenség, de az Intel erősen eltúlozza, ellentmondva korábbi önmagának is...
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz Angel1981 #160 üzenetére
Az Intel nem túlozza el a dark silicon jelenségét. Anno amikor a Pentium 4-et fejlesztették teljesen leszarták, hogy létezik ez a probléma. Egy darabig vitték a terveket, majd látták, hogy nem működik, és követték az AMD-t a többmagos irányba. Ezzel párhuzamosan törölték is a Tejast. Ugyanaz volt a probléma, mint most is, csak most a többmagos chipek skálázásával van gond. Ezzel az Intel nem mond magának ellent, csak nem akarnak megint félrefejleszteni. Nekik sem volt könnyű a Pentium 4-es vonalat eldobni, de el kellett, mert a mérnökök képtelenek voltak a fizika törvényeit legyőzni.
Lehet jönni a gyártástechnológiai váltásoknál az előnyökkel. Rendszerint az az előny, hogy egyre több tranyó fér be ugyanakkora helyre. Aztán ott van az, hogy a tranyók bekapcsolásához szükséges energia nem csökkent olyan mértékben, mint ahány tranyóval több építhető be egységnyi területre. Ezt szokás elhallgatni, de minden gond alapja. Ha ez nem lenne, akkor most 10-20 GHz-es egymagos processzorok dolgoznának a gépekben zömében a Netbrust architektúrára építve.
A bejelentésekkel az a baj, hogy marketinges csinálja. Ez addig nem gond, amíg a termékbejelentés egyszerű. A gyártástechnológia tipikusan nehéz terep. Máig nem értem, hogy a TriGate-ből hogyan lett a marketinganyagban 3D-s tranzisztor. Ez az utóbbi évek legnagyobb baromsága, hogy egy tranyó 3D-s. Értem, hogy a júzer nem érti a TriGate-et, de most komolyan egy olyan marketinganyagra építesz, ami 3D-s tranyót említ? Ki tudja még milyen fontos részletek kerültek törlésre "a júzer úgysem értené alapon".
De ha már marketing akkor gondolhatsz a Larrabee-re is, hogy ilyen-olyan ray-tracing valós időben. Hát ... termék nem lett, nemhogy ray-tracing. Az pedig kizárt dolog, hogy egy mérnök, vagy egy programozó valóban valós idejű ray-tracinget mondott a marketingeseknek.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
atti_2010
nagyúr
TriGate-ből hogyan lett a marketinganyagban 3D-s tranzisztor. Ez az utóbbi évek legnagyobb baromsága, hogy egy tranyó 3D-s. Értem, hogy a júzer nem érti a TriGate-et
Vér Pista már 3 szemüveget is rendelt hozzá hogy a haverok is lássák ha vesz új Ivyt.
[ Szerkesztve ]
1.Asrock FM2A88X+ Killer,A10-5800K,Kingston 2x4Gb 2400Mhz,Int X25-V SSD,SF Pro S.F.-450P14XE. 2.MSI-A75A-G55,A8-3870, Kingston 2x2GB2000, MSI R9-270, Zen 400.
-
cqr
aktív tag
Máig nem értem, hogy a TriGate-ből hogyan lett a marketinganyagban 3D-s tranzisztor.
Bár a 3D elnevezés nem az igazi, azért annyira nem érthetetlen, hogy honnan jött : d.
Igaz hogy a vezetési jelenség továbbra is effektíve 2D-ben történik (csak nagyobb felületen), azért még is csak lesz olyan vezetési sík ami a z tengellyel párhuzamos : dd..
-
dezz
nagyúr
Engem meg az érdekelne, hogy miért nem FinFET-nek nevezik, mint az ipar többi része, már amióta kifejlesztették (10 éve?).
-
Plasticbomb
addikt
Nem, csak evolúciós lépcsőn lép egyet feljebb... Vagyis a sima CPU APU lesz. S mi a Fő külömbség a CPU és az APU között: Az, hoyg az utóbbiban már VGA is van....
ArchLinux, Star Citizen, Subnautica+BZ, ASTRONEER, Grounded, DRAG, VOLCANOIDS, Space Engineers, Elite:Dangerous, Beyond Blue (TK-Glitch Proton)
-
Plasticbomb
addikt
válasz djculture #40 üzenetére
A VGA, mint külön VGA megmarad egyenlőre. Ha szagat a CRYSIS az APU-n, akkor bevágsz a gépbe egy hd 7970/7990-et s csókolom......
ArchLinux, Star Citizen, Subnautica+BZ, ASTRONEER, Grounded, DRAG, VOLCANOIDS, Space Engineers, Elite:Dangerous, Beyond Blue (TK-Glitch Proton)
-
Plasticbomb
addikt
Csak gondolj bele (Valahol láttam adatot arról,m hogy az akkori (kb 2 évvel ezelőtti ) csúcs intel proci tudott 25-30 GFLOPs számítási teljesítmény... Na ezt hasonlítsd össze egy akkori (Kb hd 5770) VGa 1,36 TFLOPS számítési teljesítményével... )
ArchLinux, Star Citizen, Subnautica+BZ, ASTRONEER, Grounded, DRAG, VOLCANOIDS, Space Engineers, Elite:Dangerous, Beyond Blue (TK-Glitch Proton)
-
julius666
addikt
Igazából nem a GPGPU létjogosultságát tagadtam, csupán hogy ez a "heterogén számítás kora" még mindig piszok messze van.
Az hogy pár kirakatalkalmazást aminél a célfeladatok éppen jól feküdtek a GPU-k architektúrájának és ezért megérte vesződni vele nem nevezném még annak. Jelenlegi formájában nagyon szutyok a dolog, az idétlen modell és a korlátok miatt pár speciális erre a fajta számítási problémára kihegyezett területen kívül vagy nem is implementálható rendesen a célalgoritmus, vagy nem lesz gyorsulás, de cserébe bekapsz egy rakat lehetséges bug- és sérülékenységi forrást a programodba. Na meg amennyire hallottam a CSUDÁ-ban meg OpenCL-ben sem velejéig tejfel az élet amint valami trükkösebbet akarsz (tehát nem tankönyvi példaprogramról van szó). A sokezer-csilliárd teraflopsos értékek a marketinganyagokban marha jól mutatnak de ha nem lebegőpontos műveletek ezreit akarom daráltatni a GPU-n, szart sem érnek.
Majd ezt a HSA-t meglátjuk mit fog tudni, az mindenesetre látszik az AMD nyilatkozataiból hogy 2014 előtt nem kapunk teljes támogatást bíró lapkát. És akkor még mindig ott vagy hogy alig lesz ilyen a piacon.
Elnézést hogy csak most válaszoltam, remélem még elolvasod.
[ Szerkesztve ]
-
dezz
nagyúr
válasz julius666 #169 üzenetére
Figyelembe kellene venni, hogy az GPGPU-s téma nem tegnap indult, az eleinte elég kezdetleges CUDA-val, az OpenCL-lel és az első, már valamilyen szinten GPGPU-képes GPU-kkal együtt. Azóta generációról-generációra volt fejlődés, bár elsősorban Nvidia oldalon, amit most viszont GCN egy hétmérföldes lépéssel kompenzál, igaz a válasz sem várat magára túl sokáig a Kepler képében. Ezek utóbbiak már kimondottan elsősorban GPGPU-s felhasználásra készültek!
Nos, én nem csak hallomásokra hagyatkoztam, hanem feltettem az AMD OpenCL driverét (illetve most már benne van az alap drivercsomagban) + több tucat OpenCL demót, példaprogramot, stb. az AMD-től, Nvidiától és máshonnan.
"az idétlen modell és a korlátok miatt pár speciális erre a fajta számítási problémára kihegyezett területen kívül vagy nem is implementálható rendesen a célalgoritmus, vagy nem lesz gyorsulás"
Aha. A fent említett cuccok között számos különféle terület képviseltette magát és sokkal gyorsabban (5-10x) futottak GPU-n (HD5750), mint CPU-n...
Azok az algoritmusok, amik párhuzamosíthatók és SIMD-esíthetők, többnyire "GPU-síthatók" is. Persze, jelenleg több szakértelem és "elszántság" kell hozzá, mint egy "sima" C kódhoz, amit (néhány más előny és könnyítés mellett) a HSA hoz el. De azt mondani, hogy még nem tartunk sehol és ez még szinte használhatatlan, ill. "nincsenek még értelmes chipek", az egyszerűen nem igaz.
Az 1-2 éven belül megjelent PC hw-ek közül az egyedüli nem OpenCL képes az a Sandy Bridge IGP-je... De a legkisebb gépeket leszámítva ugye amellé is tehetünk OpenCL-képes videókártyát.
Még azt sem lehet mondani, hogy a cégek a professzionális piacra korlátoznák az OpenCL-t...
Itt inkább a programozók hajlandóságáról van szó, hogy nekiálljanak átírni a teljesítményigényesebb programokat OpenCL-re. Illetve a felhasználók elvásárairól. És arról is, hogy az Intel egyelőre inkább igyekszik keresztbe tenni ennek, mint előmozdítaná. De ezt már nem sokáig teheti meg. Tudja ezt ő is, hiszen az Ivy Bridge már szintén OpenCL támogatású lesz. És az, hogy ezáltal (és AMD-s társai által) már a hétköznapi IGP-től kezdve ott lesz minden gépben az OpenCL (nem is olyan kis teljesítmény mellett), újabb nem kis előrelépés.
A HSA (vagy pl. Nvidia részről az ilyenek, mint pl. az Echelon - aminél mellesleg akár ők is átvehetik a HSA-t) nyilvánvalóan egy teljesen új korszakot fog nyitni -- de az előszelét már most is érezhetjük. Elég hozzá kicsit kinyitni az ablakot...
[ Szerkesztve ]
-
julius666
addikt
Figyelembe kellene venni, hogy az GPGPU-s téma nem tegnap indult, az eleinte elég kezdetleges CUDA-val, az OpenCL-lel és az első, már valamilyen szinten GPGPU-képes GPU-kkal együtt.
Olyannyira nem hogy már a shader nyelvek idején is voltak próbálkozások.
Egyébként a linkelt demóid meg amiket említettél is jellemzően fizikai/pénzügyi/képalkotásos számítások. Ezekről beszéltem én is, hogy ezekre valóban jó már most is a téma.
Azok az algoritmusok, amik párhuzamosíthatók és SIMD-esíthetők, többnyire "GPU-síthatók" is.
Igen, elméletben. Gyakorlatban ha nem elég nagy az a számítási igény amire szükséged van, nem éri meg. Egyrészt a késleltetés miatt (a CPU-s SIMD egységek ugye ott vannak kéznél rögtön, míg a GPU-hoz kinyúlni így tippre még a mostani APU-knál is legalább a memóriaelérés ideje). Ez az említett fizikai/stb. számításoknál meg van, egyéb területeken már nem feltétlenül.
Nem jól párhuzamosítható esetben meg hát ugye bikmakk.
Itt inkább a programozók hajlandóságáról van szó, hogy nekiálljanak átírni a teljesítményigényesebb programokat OpenCL-re.
Ó, azok a fránya programozók.
Nem tudom mennyi dolgod volt szoftverfejlesztéssel meg mennyi GPGPU fejlesztővel beszéltél, mert ez így nem kicsit meredek.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
A programozókat felesleges szidni. Ők egyszerű megoldásokat keresnek. A kétmagos CPU-kra való átállás sem volt gyors. Azt mindenki tudta, hogy ez a következő lépcső, csak mondhatni nem akarták. De amikor egy magon a skálázódás megszűnt, akkor az egyetlen úttá vált, és ez versenyt gerjesztett a programozóknál is. Amelyik szoftver megfelelt az új igényeknek, fennmaradt, amelyik pedig nem. Hát lemorzsolódott.
Most is ugyanez van. Mindenki tudja, hogy a fizika korlátot szab a homogén többmagos processzorok skálázásának. Ezzel szükséges az új elv. Arra pedig át fog állni minden szoftverfejlesztő, mert a verseny megindul. Aki nem használja az új fejlődési lehetőséget lemorzsolódik, ahogy ez az egymagos éra végén történt. Erre a helyzetre még rátesz a fene nagy mobil irányvonal, vagyis minden sokkal gyorsabban történik mint korábban, mert a mobil igények még kisebb fogyasztást követelnek, és az emberek elvárják, hogy legyen teljesítményben is előrelépés. A gyártóknak egyszerűen nem adnak választási lehetőséget a vásárlók, a heterogén éra az egyetlen megoldás az igények kielégítésére.Az Intel ugyanúgy beáll a sorba. Hiba lenne önfejűen újra a fizika törvényeinek legyőzésére törni, mint a Pentium 4 idején. Egyszer már megtapasztalták, hogy ez lehetetlen. Még egyszer megpróbálni szerintem nem érdemes. Működésre kell bírni a Larrabee-t, és az az Intel fegyvere itt. Akkor lesz gáz, ha nem fog működni. Ha nagyon agresszív a stratégia, akkor már a Broadwellbe be kell rakni. Kockázatos, de a Skylake-ig várni még nagyobb kockázat, hiszen akkor az AMD és az NV közül az Intel lesz az integrációs versenyben a legutolsó, ez az SDK-k terjesztésénél katasztrófával ér fel. Az Intel a legkevésbé sem akarja, hogy az AMD vagy az NV SDK-jával készüljenek az új programok. Az AMD-t időben valszeg már nem lehet verni, mert a Kaveri 2013-ra van tervezve, de a 2014-re készülő NV Maxwell még elkapható.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Davs
tag
~kb hány év kell ahhoz, hogy az atlagfelhasznalo szempontjabol "hatrany" legyen a sima cpu az apuval szemben? Szoval mikorra lesz mindennapi, hogy ki is lesz hasznalva? 4-5 ev?
-
atti_2010
nagyúr
Még mindig jobb mintha csak azt szajkóznák hogy CPU-t vegyetek mert az kell nektek, jó erős CPU, közben egy GPU jóval gazdaságosabban működik hiszen az Intel legerősebb CPU-ja is töredékét tudja egy HD 7xxx számítási teljesítményének.
[ Szerkesztve ]
1.Asrock FM2A88X+ Killer,A10-5800K,Kingston 2x4Gb 2400Mhz,Int X25-V SSD,SF Pro S.F.-450P14XE. 2.MSI-A75A-G55,A8-3870, Kingston 2x2GB2000, MSI R9-270, Zen 400.
-
Abu85
HÁZIGAZDA
A felhasználás módjától, a programoktól, a mobil iránytól és a dedikált GPU meglététől függ. Például a multimédiás programok fejlesztői eléggé érdeklődnek ez iránt, így manapság már egy APU a legjobb megoldás ide. Ez idén a gyártók fejlesztéseit látva nagyon kiterjed, ugyanis a Trinity és az Ivy Bridge is erősen a fejlesztők igényeit követi. Például az enkódolásra lesz egy több módban is elérhető dedikált enkódolómotor. Vagy például az otthoni videoszerkesztésnél ott van a vReveal, mely már OpenCL-re van optimalizálva, azon belül is nagy előny a sebességben, ha nem a lassú PCI Express buszon keresztül megy dGPU kezelése. Ebből a szempontból gyorsan hátrány lesz a sima processzor.
A jövőben a GPU-ra a tipikusan jól párhuzamosítható feladatok fognak átkerülni. Például a C++ AMP-re az MS biztos átírja a Kinect SDK-t, mivel a mobil termékekbe is bele akarja rakni, amit a procik nem bírnának el. Ezen a ponton is gyorsan előny lesz az APU.
A játékok még az opciós terület. Például a Shogun 2 IGP-n számolja az AI-t, ha AMD Brazost, vagy Llano APU-t használsz. Ez nem annyira általános megoldás, mert CTM-ben van írva, de erre lehet vinni a játékokat, hiszen működik.
További opció a WebCL, amit a mobil cégek erőltetni fognak, mivel GPU-t használja a weben az általános számításra. Ezzel energiát spórolnak meg az üzemidőben, és még gyorsabb is a feldolgozás.
Nagyjából ezeken a területeken lesz erős fejlődés.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
atok666
őstag
válasz atti_2010 #175 üzenetére
Valoszinuleg gyorsaban tori fel a jelszot a GPU es gyorsabban kodol, de ez a mezei user szempontjabol kb zero elony. GPU erosebb specialis feladatokban, de nem altlanos celu processzor ha jo tudom, vagy tevednek? Majd ha pl egy komplet fejleszoi kornyezet fut GPUn , es 100x gyorsabban lekompilalja ugyanazt a kodot akkor azt mondom ok - aztan az is lehet, hogy mar van ilyen csak en nem tudok rola.
Atok
-
Abu85
HÁZIGAZDA
A jelszótörésben régóta a GPU a király. De egy jól megválasztott jelszóval akkor sem tud mit kezdeni. A rövid jelszavakat természetesen gyorsan bezúzza.
Ennél a résznél a fájltömörítésben lehet előnyt kovácsolni. A Corel már készíti is a APU/GPU-val gyorsított WinZip 16.5-öt.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
atok666
őstag
Enkodolas, othtoni videoszerkesztes, kinect, jatekok - csupa olyan dolog amirol allandoan azt irjatok, hogy nagyon kis retegnek szol es nem ok a celcsoport - ergo nem eri meg nagyon fejleszteni ide - vagy megis?
Ha mar a mostani CPU is tul eros, tehat felesleges fejleszteni, akkor miert jobb a CPUnal sokkal erosebb GPU? Az hova?Atok
-
atok666
őstag
Igen, ezert irtam ezt a ket peldat, ahol a masszivan parhuzamos kod nagy elonyt jelent, de ez mind eleg specialis terulet - szerintem. WinZip detto. Havonta, kb. ha egyszer tomoritek vmit ami nem 20mpig fog tartani, hanem 3. Tudom, nem rolam szol a dolog, de nem hinnem hogy masok napi szinten tomoritenek terrabytenyi adatokat - gyakorlatilag semmit nem ad - megintcsak szerintem. Ezert irtam mar tobbszor is, hogy en nem latom - az atlagfelhasznalo szempontjabol - azt a nagy lepest amit az APU/GPU ad.
Atok
-
atti_2010
nagyúr
Ha hirtelen mindenki APU-ra fejlesztene akkor a CPU-t majdnem el is lehetne felejteni vagy elég lenne egy 1 magos APU, mert sokkal rosszabb a hatásfoka mint a GPU-nak.
1.Asrock FM2A88X+ Killer,A10-5800K,Kingston 2x4Gb 2400Mhz,Int X25-V SSD,SF Pro S.F.-450P14XE. 2.MSI-A75A-G55,A8-3870, Kingston 2x2GB2000, MSI R9-270, Zen 400.
-
Abu85
HÁZIGAZDA
Az otthoni videószerkesztés egyre jobban kezd terjedni. Ma már boldog-boldogtalan vehet olcsó kamerát, amivel szépen csinálja a családi fotókat. Ezek nem biztos, hogy profi szintűek lesznek, amire a vReveal program a jó, mivel ez gyorsan feljavítja a minőséget, és elveszi a zavaró rázkódást. Ez a OneClickFix opció például CPU-val jóval tovább tart, mint egy APU-val. Persze lehet mélyebben is szerkeszteni, ami még tovább tart. Az otthoni videószerkesztés, az egy nagyon menő üzletág ma. Nem véletlen, hogy ennyi alternatívát kínálnak már rá a fejlesztők. Egyszerűen mindenki fel akarja tölteni a youtube-ra az anyagát. Szintén nagyon terjedő dolog a képekben való információkeresés ... Pl.: arcfelismerés, mivel a közösségi szolgáltatások behálózzák a júzerek életét. Erre is vannak programok, amelyek OpenCL-lel a APU/GPU erejét kihasználva keresik a megadott arcot több ezer kép közül.
A Kinect egyelőre egy beköszönő technológia. Még nem beszélhetünk arról, hogy mennyire jön be az embereknek, mert a konzolos megoldás más, mint a PC-s. Ha viszont bejön, akkor szintén nem kérdés, hogy a GPU-n érdemes a képkockákat feldolgozni. Nem csak energiát spórolsz vele, de gyorsabban is dolgozható fel az adott tartalom. Sajna a kinectnek azért van egy elég komoly lagja, ami nem csupán az adatok feldolgozásából jön, de jórészt onnan is, amit a gyorsabb feldolgozás csökkenthet. Persze eltüntetni nem lehet, de manapság azért nagyon érezhető lagról van szó.
Növekvő terület még a telekonferencia, mely most kezd otthoni szinten is kialakulni. Szintén vannak rá programok OpenCL-es gyorsítással. Persze itt valszeg majd a Skype adja a reformokat, de az MS-nek ott a C++ AMP.
Ezek mind terjedő dolgok. Zömében azért is megy erre a piac, mert a fizikai korlátok mellett az igények is a GPU-val való kiszolgálás felé tolódnak el. Egyszerűen egyre gyorsabban akarnak a júzerek videót szerkeszteni, egyre gyorsabban akarnak arc alapján keresni a képek között. És persze mindezt egyre kisebb fogyasztással. A CPU nem skálázható olyan mértékben, hogy ezeket az igényeket lefedje.A hardcore játék, aminek a célcsoportja szűkül. Ez zömében a konzolok miatt alakult így. A PC-s játékpiacnak nincs vége. Ezt az AMD is mondta az előadásokon, de nem lehet elmenni amellett, hogy a social gaming válik meghatározóvá. Mondta Lisa Su, hogy a hardcore réteg egy nagyon fontos terület, és mindig lesz erre igény, de a hétköznapi játékosok nagyságrendekkel nagyobb piacot képeznek, ami üzletileg kihagyhatatlan lehetőség. Nyersebben fogalmazva a social gamingben van a pénz, míg a hardcore csak úgy van már. Néha hoz egy kis nyereséget, majd egy kis veszteséget, de a social gamingből, vagyis az APU-val/IGP-vel megcélzott területekről származó nyereség, ezt messze kompenzálja. Pénzből élő cégek hülyék lennének kötni magukat a régi trendekhez. Ha változik az igény, akkor változtatni kell a termékeken is. Most ez történik.
A social gamingnél valszeg a web lesz a meghatározó. Azon belül is a Flash 11, a WebGL/WebCL/HTML5, és a többi felület, mint a Unity vagy a WebVision. ezeket kell erősen támogatni. Mindegyik GPU-val gyorsítható.A hardcore gaming egyelőre nehéz ügy. Attól függ a jövője, hogy az új generációs konzolok hogyan alakulnak. A Wii U és a pletykált új Xbox felépítése egyáltalán nem kedvez annak a modellnek, ami most a PC-ben van: egy CPU rendszermemóriával, és egy dGPU saját memóriával, mindez egy magas késleltetésű nem éppen gyors busszal összekötve. Gondolom az AMD ezért dolgozik azon, hogy a dGPU az APU kiegészítése legyen, mint egy koprocesszor, dedikált gyorsítótárral. Most arról még nehéz bármit is mondani, hogy ez mennyire jön majd be. Az biztos, hogy változtatni kell, és az új konzolok felépítéséhez kell igazodni valamilyen szinten.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
atti_2010
nagyúr
Pont a Tescos gépeknél lesz ez bevezetve legelsőre mert egy elég erős APU-nal kihagyják a VGA -t és elsütik jó áron a tulajdonképpen jóval olcsóbb gépet.
1.Asrock FM2A88X+ Killer,A10-5800K,Kingston 2x4Gb 2400Mhz,Int X25-V SSD,SF Pro S.F.-450P14XE. 2.MSI-A75A-G55,A8-3870, Kingston 2x2GB2000, MSI R9-270, Zen 400.
-
atok666
őstag
<off> Youtubeon is csak egy klikk a razkodas-szures </off>
Nem kotom az ebet a karohoz, de meg mindig nem latom a nagy elonyt.
A dolgok amiket felsoroltal - gondolom ez az atlagfelhasznaloi igeny, ez jott le az irasodbol es te jobban tudod mint en - a real-time video vagas kivetelevel, gyakorlatilag minden mukodik ma is. Az, hogy efektivebben megoldhato par dolog, a user szamara lathatatlan, nem erez belole semmit - talan annyit hogy egy oraval tovabb birja az akksi, esetleg 2euroval alacsonyabb lesz a havi villanyszamla.Atok
-
Davs
tag
válasz atti_2010 #175 üzenetére
Szerintem felreertettel, en errol az egeszrol annyit tudok csak, amennyit itt olvasok erdeklodtem csak, hogy kb mikorra er el az atlagfelhasznalokhoz a dolog..most vettem notit i3 sandyvel, elozo notim 5,5-6evet huzott le nalam, szoval ugy 4-5 ev mulva tervezek venni ujat es arra celoztam, hogy akkor mar kemenyen az-e fog folyni a csapbol ..
-
atti_2010
nagyúr
Hát igen mert nem kell diszkrét VGA-t használni ami jelentősen megdobja az árat, vagy ha játékos gépre törekednek akkor ötvözhetik a diszkrét kártya erejét az APU-val így jóval kisebb kártyát is lehet használni.
1.Asrock FM2A88X+ Killer,A10-5800K,Kingston 2x4Gb 2400Mhz,Int X25-V SSD,SF Pro S.F.-450P14XE. 2.MSI-A75A-G55,A8-3870, Kingston 2x2GB2000, MSI R9-270, Zen 400.
-
Abu85
HÁZIGAZDA
A Youtube-os megoldás nem valami korrekt, illetve alig használják. Ha nem így szerkesztetted le a videót, akkor nem is lesz elérhető. Egyedül az AMD kínál ilyet valós időben (Steady Video), csak ez nem érhető el minden gépen, mivel AMD platformhoz van kötve, ami szvsz baj.
Mert a skálázást nem veszed számításba. Teljesítményre mindig szükség lesz, csak más igények mellett. Most már a fogyasztás is fontossá vált. A processzormagok skálázhatósága viszont így erősen korlátozott. Csak abból indulj ki, hogy egy magról váltottunk kettőre. Ez elméletben duplázta a throughput teljesítményt. Ezután kettőről álltunk négyre. Ezzel szintén majdnem dupláztunk noha, az órajelet vissza kellett venni a fogyasztás mérséklése véget. Innen az egész turbó dolog, mert kihasználható a TDP keret egy maggal. Most már szinte csak +két magot pakolunk be, ráadásul egyre kisebb sebességelőnyt biztosítva. A skálázhatóság még nem tűnt el, de el fog. Négy mag jelenleg az ideális paraméter, és a további skálázhatóságra jobb eredményt ad, ha az IGP-t használják a gyártók. Sebességben, fogyasztásban előnyösebb. Egyedül a programozási modelleken kell változtatni.
A user azért vesz PC-t, hogy többet tudjon, gyorsabb legyen, és kevesebbet fogyasszon. Ezeket az igényeket a heterogén többmagos lapkákkal lehet biztosítani. A gyártók csupán kiszolgálnak.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Angel1981
veterán
"Gondolom az AMD ezért dolgozik azon, hogy a dGPU az APU kiegészítése legyen, mint egy koprocesszor, dedikált gyorsítótárral."
Igen, szerintem is megpróbálnak tenni azért, hogy a nextgen konzoljátékok átportolhatóak legyenek PC-re, mert ha nem sikerül, akkor tényleg drámaian esni fog a kereslet a dVGA-k iránt, és végérvényesen perifériára kerülhetnek, csak professzionális piac marad...
-
dezz
nagyúr
Nézzétek meg ezeket a videókat: [link], [link] Aztán a többit... És képzeljétek el, hogy így néznek ki majd a játékok, ilyenek lesznek a robbanások, a tűz, a folyadékok, alapvetően a fizika és a grafika...
Mindehhez a CPU önmagában nagyon-nagyon kevés, valós időben. Alapvetően GPU alapon valósítható majd meg valamikor. Leginkább a CPU és a GPU szoros együttműködésében. Csak hát oda el is kell jutni valahogy...
(#172) julius666: "Olyannyira nem hogy már a shader nyelvek idején is voltak próbálkozások. "
Tisztában vagyok vele, hiszen a GPGPU megjelenésekor még sehol sem volt a CUDA és a OpenCL.
"Egyébként a linkelt demóid meg amiket említettél is jellemzően fizikai/pénzügyi/képalkotásos számítások. Ezekről beszéltem én is, hogy ezekre valóban jó már most is a téma."
Azért nem egészen ezt írtad...
"Nem tudom mennyi dolgod volt szoftverfejlesztéssel meg mennyi GPGPU fejlesztővel beszéltél, mert ez így nem kicsit meredek."
Csak úgy 26 éve programozok és 20 éve ebből élek... (Bár úgy 10 éve jellemzően nem OS alatti user applikációkat, hanem hw-fejlesztés keretében embedded, uC.) A '90-es években jellemzően videós képfeldolgozással és effektezéssel foglalkoztam. (Akkor még nem úgy ment, hogy google: xyz torrent... Photoshop is kezdetlegesebb volt kissé. Mindenhez saját, jól optimalizált kód kellett.) Akkor nagyon-nagyon jól jött volna a GPU-k ereje!
Ha most lenne egy nagy számításigényű fejlesztésem, kizárt, hogy nem állnék neki GPU alapon megvalósítani... (Még ha esetleg szellemileg már kissé megterhető is lenne.)
Ma a legtöbb programozó kis beosztott, a főnök írja elő, mennyi időt lehet valamire szánni, stb. Ismerjük: pl. a legtöbb játékot is pocsék módon optimalizálják (pl. egyes exklúzív konzolos címekhez képest), a határidők, költségek és D-kat. code-monkey "hordák" miatt, stb. Ami kicsit is optimalizált, az már király...
Ismerősömék egyébként 6-7 éve fejlesztettek shader alapon egy komolyabb képfeldolgozást, ipari célokra.
(#173) Abu85: Sajnos pl. a CAD/CAM programok között jópár van, ami máig egyszálas... Ha nincs konkurencia adott témakörben (vagy csak elméletben, de be van betonozódva a piac), akkor nem nagyon erőltetik meg magukat...
-
dezz
nagyúr
Nos, remélem, nem csak azt az egy sort olvastad el Abu hozzászólásából, és nem kérdezed meg többször, hogy mire jó ez az egész az hétköznapi usernek...
De amúgy miért csak a hétköznapi user szintjét kellene nézni? A PC nem csak hétköznapi user szintű felhasználásra való, sőt nem is elsősorban hard-core gamingre. A leginkább megcélzott piacok ma már ezek: mobil vonal, olcsó irodai gépek és drága SW/HPC (SW = workstation, HPC = High Performance Computing, komolyabb WS, mini- és szuperszámítógépek), pl. ipari területre, kutatás-fejlesztésre, stb. -- amikből hosszabb távon általában a "kisember" is profitál. (Főleg, ha pl. majd ilyen alapú felhőkből streameli [vagy mi ide a jó kifejezés?] a képet a kis tabletjére, stb.)
(#177) atok666: Ha nem is annyira általános célú, mint a CPU, de az egyik fő cél az általános célú számításokra való alkalmasság. A GCN (HD79x0, stb.) kimondottan ennek szellemében készült, de már generációk óta szempont (Nvidiánál méginkább).
[ Szerkesztve ]
-
RyanGiggs
őstag
Nem tudom kérdezte-e már valaki, ezért megkérdezem, hogy
majd a 2013-ban debütáló Kaveri APU mellé már bármelyik
vgát be lehet tenni?! Mire gondolok pontosan?!
Pl. a jelenlegi Llano mellé, ha jól tudom akkor CSAK max egy HD6670 társítható!
Tehát a kérdésem, a Kaveri APU mellé akár egy 5850-et, vagy
egy 7950-et is be lehet tenni, annak céljából hogy összedolgozzanak? -
FireKeeper
nagyúr
válasz RyanGiggs #195 üzenetére
régebbi architektúrájú kártyával nyilván nem fog összedolgozni.. mivel nem hiszem, hogy az alsó és alsó/közép hd7000-ek megkapják a gcn-t, ezért tuti, hogy majd csak a jövőbeli hd8000-ekkel fog működni, de szerintem még ott sem mindegyikkel.
steam, GOG, uPlay: @petermadach || HotS: PeterMadach#2675 || Xperia 10 V || Ultrawide & SFF masterrace || Unofficial and unpaid VXE R1 shill
-
dezz
nagyúr
Itt van még két slide, amit eddig nem nagyon láttam:
-
Abu85
HÁZIGAZDA
Azt mindenképpen vedd számításba, hogy a nextgen konzoloknál alapvető fejlesztői elvárás, hogy egy memóriatárba dolgozzon minden, illetve az összeköttetés is sokkal gyorsabb legyen. Lehetőleg integrálva, hogy ns-os késleltetéssel lehessen a feladatokat dobálni a CPU és a GPU között. Itt jön a VGA problémája. A PCI Express 300-400 ns-mal dolgozik (függően a vezérlők távolságától) és elég gyenge adatátvitellel. Nulla esélyed van egynél több adatátadásra. Sőt még ez is sok, de ennyit muszáj csinálni.
Az AMD még akar VGA-kat, de ők sem úgy gondolnak már erre, mint egy általános termék, hanem mint az APU-k kiegészítő koprocesszorai. [link] - valahogy így. Ezzel lesz gyors kommunikáció a CPU és az IGP között, amit kiegészít a GPU, ami végtére is a rendszermemóriát használja.
Szerintem ez nem feltétlen előnyös. Abból a szempontból igen, hogy lesz egy csomó SIMD még, ami gyorsítótárként használja a VRAM-ot, és logikailag hozzákapcsolódik az IGP-hez, de ez csak platformmal működik. Valszeg egy-két évig fenn lehet tartani, de vége a full integráció ennek is. Ahogy bonyolódnak a feladatok úgy válik egyre nagyobb korláttá, hogy egy külső buszon kommunikál a CPU és a GPU.Várhatjuk az új konzolokat, hogy majd felpörög a VGA-piac, de a fejlesztői igények alapján pont ezek lesznek problémásak a PC-s CPU->VGA modellre. Annyi trükk kell majd itt, hogy a portok elkészítése hosszadalmas és drága lesz. Persze több opció is van ezenkívül. Az egyik, hogy lebutítják a játékokat PC-re. Ami szvsz senkinek sem az érdeke, de egyelőre sokan vakarják a fejüket még a cégeknél is.
Pont ezért komoly téma az API-k eldobása. Ezt a szoftveres korlátot legalább ki lehet ütni. Erre lehet opció egy virtuális ISA. Az a nagy probléma, hogy minél hardver közelibb réteget csinál valaki, annál kevesebb fejlesztő követi a céget. Én úgy gondolom, hogy a lehetőségre szükség van, de a fejlesztők többsége az egyszerűbb utat választja majd. Úgy kell a fejlesztést egyszerűvé tenni, hogy kiüsd a szoftveres korlátokat, és még ne is kelljen többféle architektúrára dolgozni. Ilyen alapon tényleg egy Java bytecode-hoz hasonló virtuális ISA a legjobb, csak kellően a hardverhez igazítva.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
dezz
nagyúr
"a mostaniakat igen, de a 2-3 év múlva megjelenő cucuckhoz tutira kevés lesz az APU"
Ez egy érdekes kérdés, mert nyilván fejlődni fognak, csakhogy ugye már a Trinitynél is elég szűkös lehet a memsávszél, és nem nagyon várható kettőnél több alaplapi memória-csatorna később sem a megcélzott szegmensekben (drága).
Viszont éppen a következő években tervezik bevezetni (ekkorra válhatnak kellően gazdaságossá) a stacking megoldások, amikor is a "sima" MCM-hez képest jóval szélesebb buszon ülő memóriachipek kerülhetnek a tokba az APU mellé...
De egyébként egy olyan dolog elképzelhető, hogy a frame-generálási előkészítő munkálatokat (pl. az eddigieknél komolyabb fizika, geometria, stb.) együtt végzi a CPU és IGP, aztán a nagyobb sávszélt igénylő képgenerálást vagy ugyancsak az IGP (ha nincs diszkrét), vagy egy diszkrét GPU.
(#204) Abu85: Elképzelhető itt valamilyen új, a PCIe-nél közvetlenebb összeköttetés bevezetése?
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Elvileg lehetséges, de egy külső busz, akkor is büntetés a késleltetésben. Ez csak integrálással tűnik el. Szerintem az AMD is csak próbálkozik valamit alkotni, de nem hiszem, hogy túl nagy reményeket fűznek ehhez. Az NV-hez hasonlóan ők sem számolnak hosszútávon a VGA-kkal. Próbálják életben tartani az egészet, amíg lehet, de előbb-utóbb vége lesz.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
-
dezz
nagyúr
válasz kleinguru #207 üzenetére
MCM = Multi Chip Module, ahol a proci spéci mini-nyákjára több chipet is feltesznek. Hátránya, hogy így messze nem lehet annyi adatvonal a chipek között, mint a stacking megoldásoknál.
(#208) Abu85: Persze, de azért a PCIe-nél "minden" csak jobb lehet, mivel hogy ez csatornánként 1 bit széles soros kapcsolat. És talán az sem mindegy, hogy a megalkotója, azaz az Intel annak idején igen csak ellenérdekelt volt a GPU és a CPU közötti "könnyed", kétirányú adatcserében.
Amúgy te milyen úton-módon látod megvalósulni a diszkrét kártyák megszűntetését?
Új hozzászólás Aktív témák
- AMD Ryzen 3600 (pár napig használt)
- Intel Core i3-10105 processzor (használt)
- Beszámítás! Intel Core i7 7700K 4 mag 8 szál processzor garanciával hibátlan működéssel
- Hibátlan - AMD Ryzen 5 2600 - 6 mag 12 szál 3.4GHz + gyári hűtő
- Beszámítás! Intel Core i3 9100 4 mag 4 szál processzor garanciával hibátlan működéssel
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen
Cég: Promenade Publishing House Kft.
Város: Budapest