Új hozzászólás Aktív témák
-
fatallerror
addikt
na erre biztos ugrani fognak az okosok :Đ
don't tell me what i can't do!
-
Shing
őstag
Azért hagyják ki a PCI-E 3.0-t, mert ~4 évig senki sem cserélné le a procit.
[ Szerkesztve ]
-
radi8tor
MODERÁTOR
PCIe 2.0 sem használja ki semmi, miért akar mindenki 3.0-t?
⭐ Stella
-
Geri Bátyó
őstag
A 14 SATA port valóban kissé fölöslegesen soknak tűnt, de a 6 kissé kevés. Igazán meghagyhattak volna 4-et a 6 Gbps-os portok közül is, de SAS nélkül.
"nem tudni, hogy a BIOS-ban alkalmazott mikrokód végleges-e, hiszen ezen a ponton is le lehet fojtani az adott processzor teljesítményét"
Annyira azért nem száguldozott abban a tesztben (2600K-hoz képest), hogy még lassítani is kelljen!"Ki a büdös istennyila vagy te bohócképű!?" SzŐr Geri, birodalmi poéta és főszakács (:L topic)
-
djculture
félisten
válasz Geri Bátyó #6 üzenetére
majd a következő revizióban mikor már mindenki megvette ezt.
-
Abu85
HÁZIGAZDA
válasz Geri Bátyó #6 üzenetére
Ezt nem úgy kell érteni. A végleges mikrokód előtt bevett szokás olyat csinálni, ami limitálja a processzor gyorsítótárainak teljesítményét. Így nem derül ki a termék valós teljesítménye a megjelenés előtt. Ez ugye a hibakeresésben nem jelent változást, így simán megoldható.
Ezért írtam, hogy lehet, hogy gyorsulhat még, mert a mikrokód le van fojtva. Persze lehet, hogy minden végleges. Ezt innen nem lehet tudni.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
szabi80sz
tag
"Szerencsére a gond nem annyira súlyos, mivel a PCI Express 2.0-s felület sebessége elérhető, így a rendszer esetében csak a 3.0-s szabványról kell lemondani, ami bőven bevállalható opció, hiszen az új csatolóból jelenleg nem lehet előnyt kovácsolni."
Csak?! A PCI-E 3.0 a szoftverek egy új generációját hozhatná, mert a nagyfokú párhuzamosításnál nem lenne késleltetés (a processzor közvetlenül tudná írni és olvasni a videokártya memóriáját), ez az oka, amiért próbálják erőltetni a 2-est (ezenkívül az Amd új processzorai sem támogatják a 3.0-át), így várni kell még sokat a 3.0-ás videokártyákra is, ráadásul addig az Intel simán kitiltja a külső videokártyákat a rendszereiből. Gazemberek ezek mind!
Egyébként pont ez a válasz arra, hogy miért kell Pci-e 3.0. Még mielőtt valaki azzal jönne, hogy ez nem olyan nagy veszteség: hát az! Én ezekkel dolgozok és a legtöbb számítás többszöröse a késleltetési idő, így versenyezhetnek ma a jobb processzorok a kártyákon történő számításokkal (ha ez az idő kiesik, akkor nem tudnák behozni a lemaradást, annak ellenére, hogy nem minden algoritmust lehet párhuzamosítani, így ezek a nem párhuzamosíthatók gyorsabban futhatnának a nagyobb órajelű. processzoron, de akkor ahhoz meg nem szükséges 1-2 magnál több).[ Szerkesztve ]
-
Tomcat
őstag
Nos akkor hogy is van ez? Az MSI árulkodik hogy a Gigabyte megtéveszti a vásárlóit mire most kiderült hogy még egy jó darabig nem is lesz szükség a 3.0-s PCI-E szabvány implementáéására. Így már érthető a különböző vállalatok eltérő hozzáállása a következő szabvánnyal való kompatibilitáshoz. Valami azt súgja hogy még egy pár év és legalább két-három alaplap generáció kijön addig mire tényleg szükség is lesz az új szabványra mint "de facto" szériatartozék tulajdonságra.
Tomcat
-
"Szintén nem tudni, hogy a BIOS-ban alkalmazott mikrokód végleges-e, hiszen ezen a ponton is le lehet fojtani az adott processzor teljesítményét. "
sorok között: akkor nem nem csak nekem tűnt ez így ebben a formában nagyon gyengének (főleg a várható árazás függvényében). remélhetőleg tényleg csak a mikrokód.
picit 975ös chipset érzésem van. bizonyos tekintetben remek (40 pciE lane azért tiszteletreméltó), 6 sata (na nekem ez kevés lenne), baromi drága megoldások, sebességben meg a nyakán a középkategóriás társa. aztán belegondolva a 400usdre mondott lapokra, hm, skulltrail flashbackem van.
[ Szerkesztve ]
Don't dream it, be it. // Lagom amount.
-
Petike1007
tag
És akkor most a Gigabyte röhög markában,hogy jól megszivatta magát az msi a felesleges chipekkel...van akinek minden bejön...
Nem az a lényeg honnan jössz,hanem hogy mit iszol...
-
clippy
tag
Szerintem a 6 sata port kevés, főleg a SAS hiánya lesz a másik gond, mivel ezek a procik és a hozzá tartozó alaplapok a pénzes felsőkategóriába tartoznak, profi felhasználók (cégek) fogják főleg venni, van arra pénzük, hogy komoly háttértárat tegyenek bele és ne sima sataII-est... nagyon úgy néz ki, hogy az intel nagyot akart durrantani de csak egy kis lépés lesz.. én úgy látom inkább középfelsőkategória lesz a rendszer és nem felsőkategória.. ezzel az erővel lehetett volna 1155-ös tokozású.. kiváncsi leszek majd a tesztekre, lehet alig lesz számottevő gyorsulás az 1366-os rendszerhez képest...
Elképzelhető, hogy úgy lesz mint a windows-nál, sokan kivártak az XP-vel, kihagyták a vistát és win7-re álltak rá.. maradnak az 1366-nál és majd váltanak a pl. 3076-os majdan megjelenő rendszerre..[ Szerkesztve ]
-
senior tag
Most sorry már, (nemrég ébredtem fel és álmos vagyok még) azért kérdezek rá, hogy most én olvastam félre, vagy tényleg összesen 6db SATA csatit akarnak tenni az X79-es lapokra az előzetes szerint?
Mert ha tényleg, akkor nem tudom, hogy sírjak-e vagy nevessek, mert az l***sz kevés. Főleg, hogy várhatóan 60-120K -ért fogják árulni az X79-es lapokat. Én többek közt azért is várom ezt az 2011-et, mert 1366-ra már így jelen pillanatban nem váltanék, tekintve, hogy az 1156, 1155 is sokkal újabb a 2011 meg a nyakunkon van. De az 1156-nak nem látom értelmét az 1155 fényében (félreértés ne essen, nem azt mondom h rossz, csak nekem most 775-öm van és ha váltanék nem váltanék 1156-ra már) az 1155-ök között meg tényleg rengeteg alaplap van, de én egyet se találtam amit szívesen megvennék az enyémnek a helyére. Erre meg 6 db SATA-t tesznek az X79-re? Viccnek is rossz. Nem értem miért szaroznak ennyire a felszereltséggel főleg egy várhatóan jó drága cucc esetében.
-
senior tag
"sokan kivártak az XP-vel, kihagyták a vistát és win7-re álltak rá"
Én is így csináltam... soha nem volt Vistám, mert 7-re váltottam XP után.
"maradnak az 1366-nál és majd váltanak"
Ezzel kicsit hátrébb vagyok, mert nekem még 775-öm van. Kb pár hónappal ezelőtt kezdtem el először gondolkozni, hogy váltani lehetne esetleg, szóval szerintem én az 1366, 1156, 1155-öt kihagyom már mindenképp, azért is akarom megvárni a 2011-et, de ha ennyi pénzért ennyire nem erőltetik meg magukat, akkor lehet a 2011-et is kihagyom aztán inkább veszek valami 775-ös 4 magos Extreme Edition procit és jól elhúzom az időt még ezzel a rendszerrel, elvégre már 3 éve jól szolgál.
[ Szerkesztve ]
-
kpal
veterán
válasz Lord Dragon #21 üzenetére
A 775 is jó amíg az embernek elég arra amire kell nem is kel cserélni semmit .
[ Szerkesztve ]
-
senior tag
Hát nekem még minden játék elfut Ultra High-on szaggatás nélkül és még csak 2 magos a procim, szóval nem érzem h le lenne maradva. Jelenleg 4050 Mhz-en hajtom a procit feszültség csökkentéssel. Erre a proci teljesítményre még rá lehetne duplázni egy Extreme edition beszerzésével, ami valszeg szintén menne 4050-en, szóval egyelőre én nem félek attól, hogy túl gyenge a proci. Filmet konvertálni nem szoktam. Játék az ami általában a leggépigényesebb azok közül amit csinálok, arra meg úgy néz ki még eddig bőven elég. Esetleg ha a Rage jön meg a Diablo 3 meg az Elder Scrolls 5. Ezeket mindet várom, akkor lehet szükség 4 magra.
-
kpal
veterán
válasz Lord Dragon #23 üzenetére
Nekem is 2magvas van de keveset játszok időhiányában és emiatt ritkán fejlesztek. Most is online csak a Crysis Warst tolom .
-
clippy
tag
Nos a korábbi hírekre hivatkozva, az intel anno bejelentette, hogy néhány dolgot nem tudtak megoldani a proci "utasitáskészletével" kapcsolatban de majd később ezt a problémát megoldják, erre jött az alaplapgyártók válasza "sebaj majd lesz néhány ""butitott"" alaplap és ha megoldják akkor kijönnek a full alaplappal"... olvasva a cikket, már szerintem szó sincs semmilyen "butításról" mert az előre beharangozott tudást nem tudja a proci.. marad a "butitott" alaplap, és Marvell, JMicron chippekkel próbálják majd bővíteni (már ha engedi)..túl gyorsan (nyomás alatt) túl nagyot akartak lépni és bukás lesz ez a széria...szerintem egy éven belül kiis vonják majd..
-
szabi80sz
tag
Pontosan melyik részéről adjak linket?
Tehát a lényeg PCI-E 3.0 előtt, pl. Cuda esetében az első lépések:
1. megfelelő mennyiségű rendszermemóriát lefoglalni az adatoknak (amiken a párhuzamos műveleteket végre kell hajtani).
2. ezt a területet feltölteni adatokkal.
3. videomemóriát lefoglalni a 2-es pontban megadott adatoknak (ezt lehet párhuzamosan is végrehajtani az 1 és 2 lépésekkel)
4. átmásolni a rendszermemóriából az adatokat a videomemóriába.
Ezt gyorsítaná, ha kihagynák a lassú rendszermemóriát és a felesleges másolást.
Ha vége van a számításoknak, akkor attól függően, hogy a keletkezett adatokat hol dolgozzuk fel még jöhet egy videomemóriából a rendszermemóriába történő másolás (régi vagy új helyre, de szállal ezt -a lefoglalást új hely esetén- is lehet gyorsítani). Majd fel kell szabadítani a lefoglalt video- és rendszermemóriát. Ez mind a végén: sok idő (főleg a lassú rendszermemória műveletek).
Saját méréseken alapszik az általam leírt dolog, de ha érdekel: itt van pár részlet az induláshoz:
http://supercomputingblog.com/cuda/cuda-tutorial-1-getting-started/
(saját mérést ajánlok, ahol az első 4 lépést és az utolsó másolás/felszabadítást külön méred a konkrét számítás(ok)tól az eredmény meglepő lesz -a számítások során sok lebegőpontos műveletet ajánlok- ). A Cuda sdk-ban (GPU Computing SDK) is van ilyen mérő program, ez innen szedhető le (nem emlékszem a nevére, de végig kell próbálgatni) :
http://developer.nvidia.com/cuda-toolkit-40 .
Régebben mértem: ezért pontosabban nem tudok segíteni, mivel most egy Firepro-t használok és OpenCl-t, ezen nem foglalkoztam mérésekkel (korábban elég meggyőző volt a Cuda-s és a rendszermemóriám nem gyorsult sokat, a vid.kártya számítási teljesítménye igen). Pár példa nálam (néhány éves mérések) : Művelet: sin (nem csak ezt néztem: mást is, de kb. hasonló eredmények jöttek ki, ezeket az adatokat nem jegyeztem fel). 512-es blokk méret 33553920 db float adat (tömbben). Mértékegység: ms.
Athlon 64 X2 (dual chanel mem ddr2 800Mhz) + Geforce 9800Gt, 16x pci-e 1.1 :
Lefoglalás: 181, Felszabadítás+visszamásolás: 91, számítás: 67.3 a processzor szálak nélkül: 3815
Intel Atom 330 + Geforce 9800Gt, 16x pci-e 2.0 :
Lefoglalás: 233, Felszabadítás+visszamásolás: 192, számítás: 67.1 a processzor szálak nélkül: 8894
(Tehát: Lefoglalás+felszab.+visszam. Athlon esetnén: 272 ms, míg maga a számítás 67.3 ms. Bonyolultabb számítások esetén ez a 67.3 ms többszörösére is nőhet, de még mindig túl nagy a "felesleges" idő a számításokhoz képest, aminek nagy része eltűnne PCIE3.0 esetén. A feldolgozandó adat mennyiségének növekedése a lefoglalási- és másolási időket nagy mértékben tovább növeli. A rendszermemóriák sebessége: kb. 2szeresére nőtt a mérésem óta, míg a hasonló kategóriájú Geforce általános számítási sebessége kb. 4-5szörösére -amd pedig hasonló kategóriában még gyorsabb-, tehát látható, hogy a fenti "felesleges" műveletek egyre nagyobb nyűgöt jelentenek, amire a Pcie3.0 megoldás lehetett volna).[ Szerkesztve ]
-
clippy
tag
válasz szabi80sz #27 üzenetére
de ha ide-oda pakolgatja a rendszer a számításokat (és ahogy olvastam a 3.0 inkább csak a visszafogást oldaná fel) akkor rendszermemóriának min.16 Gigának kellene lennie.. itt a fórumon volt egy magánteszt,, hogy játékok mekkora memoriát használnak.. kb. 2,5 Giga volt a max. (így lefojtva).. lehet rosszul gondolkodom de ha a 2,5 gigát vesszük 4-5×ös ram kell hozzá, hogy a folyamatos számítások puffer stb. frissüljön.. de lehet még több.. akkor ott vagyunk, hogy a mostani maximálisan engedett 32 Giga Ram kell a gépekbe, hogy ténylegesen kihasználjuk a VGA CPU RAM kapacitását.. (lehet megint baromságot írok de én így gondolkozom logikusan)
-
LALA_kiraly
senior tag
az intel meg minek is fejlesztene, hisz a procit eladja, a konfigot meg cserélgesd 1-2 évente. Ez az üzlet...
50/1160-447 Találkozhatunk: 21, 22.ker
-
Entryy
aktív tag
Véleményem szerint mindegy, hogy van e értelme a PCIe 3.0 nak (mindemellett sztem van!) vagy sem. De! ha már a 999$os űberbrutállegqrvagyorsabb procit veszem, ami értelmetlenül drága, akkor igen is legyen tele a legújabb technikai lehetőségekkel!
Az pedig, hogy a gépbe még RAID kártyát is kell venni - mert alig lesz benne Sata - és még az USB 3.0át sem natívan támogatja...
Olyan ez, mintha nem lenne kész, hogy finoman fogalmazzak.
Vagy csak a szokásos lehúzós TIK-TAK taktika.
http://www.adrenalinbase.com/index.php?L=fr&T=videos# -- The need4speed " The art of flight "
-
szabi80sz
tag
Nem értem mi a kérdés. Szerinted a felesleges pakolgatások, amik zajlanak és amik egy rakás időt felemésztenek megérik, hogy "közös címtérben dolgozzanak"? Ráadásul most nem egy közös címtérben dolgozik a rendszer, illetve a programozók. A fent leírt lépéseket nekünk kell kézzel végrehajtani (alaplapra integrált vid. kártya hiába használ rendszermemóriát: ott is meg kell tenni ugyanezeket a lépéseket, viszont ha hozzáférne a vid. kártya a host memóriához, az gyorsítást és egyszerűbb munkát eredményezne és a kompatibilitás is megmaradna). A PCI-e3.0 esetében valóban lehetőség nyílna arra, hogy egy közös címtérben dolgozzunk az adatokkal, de itt a kérdést nem értem, hogy mire vonatkozott? (Egyébként bizonyos esetekben gyorsabb lehet a 2 címtér, de akkor is kimarad a felesleges másolgatás, amiket ma végre kell hajtani). Viszont, ha valaki úgy akar OpenCl, Cuda, stb. programokat írni, mint eddig: ezt is megteheti, semmi sem akadályozza, viszont kényelmesebb lesz az új megoldás.
[ Szerkesztve ]
-
szabi80sz
tag
Vagy Dezz arra gondoltál, hogy maga a program amúgy is a rendszermemóriában dolgozik és ne dolgozzon a vid.k memóriában? (Programozáskor szerintem ez nem jelent gondot senkinek.)
Még annyit azért leírok, hogy átnéztem a Pci-e 3.0 egyik leírását és ami jó lett volna, hogy a cpu hozzáfér a vid.k.memóriához: ez lehet, hogy nem valósul meg (ha valaki másképp tudja, linkeljen legyen szíves ), viszont a gpu hozzá fog férni a host (rendszer) memóriához, tehát a felesleges másolgatás kimarad, így az általam is nagynak tartott időt csökkenti, tehát mindenféleképpen jobb lenne. -
senior tag
-
dezz
nagyúr
-
Abu85
HÁZIGAZDA
Nem kellenek 200-300 wattos GPU-k az APU-kba. Az AMD az FSA-val próbálja kiütni az API korlátjait. A low-level elérés annyira begyorsíthatja a rendszert, hogy egy töredék teljesítményű IGP is szarrá tudna verni egy API+driveren keresztül működő csúcs-GPU-t.
Az ARM is ugyanezt csinálja. Bár ők az FSA mellett állnak, vagyis nem fejlesztenek saját rendszert, hanem az AMD nyílt megoldására építenek hardvert, amit majd az OpenCL-en, és feltételezhetően a C++ AMP-n keresztül lehet FSA-val használni. Pont úgy,a hogy az AMD-s lapkákon. Az IBM is partner már, de szerintem csak a nextgen konzolok miatt, hogy a fejlesztőknek egyszerűbb legyen. Az már eléggé körvonalazódik, hogy mindhárom nextgen konzol marad a Power prociknál.
Az NVIDIA szintén ugyanezt csinálja, csak a zárt CUDA-val. Az elméleti alapok viszont egyeznek. Annyi az eltérés, hogy amíg az FSA az OpenCL és a C++ AMP kiterjesztése, addig a CUDA egy teljesen egységes felület, persze zárt, és ez lehet egy hátrány, hiszen csak NV-n fog futni nagyon gyorsan. A CUDA x86 szart sem ér majd a heterogén jövőkép mellett. Persze ez az NV-nek pont jó.
Sőt, ha tovább utazunk az időben pár évet, akkor az Intel is ugyanezt csinálja, csak ők nem FSA-znak, vagy CUDA-znak, hanem x86-os "GPU-magokat" építenek, azaz a Larrabee vagy új néven MIC magok kerülnek a mostani IA főmagok mellé. Szimplán C++-ban kihasználható.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Az FSA-t a GCN architeltúra köré építik. A hardveres alapok ki vannak dolgozva, és az ARM meg az IBM is megkapta őket, hogy dolgozzanak a saját hardveren. A szoftveres alapok vannak hátra, és ebből leghamarabb 2013-ra lehet valami.
Mire erre lesznek majd programok akkorára nem biztos, hogy értékes lesz a dGPU-k piaca. Az AMD a hosszútávú stratégiájában emlegeti a dGPU-kat, de éves szinten 33%-ot esik a piac bevétele, akkor ez a hosszútávú stratégia lényegtelen lesz.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
dezz
nagyúr
Esik, de nem kis részben azért, mert az átlagjátékos nem használja ki a komolyabb kártyákat... De mi lesz, ha kezdenek átállni végre ray-tracingre és más efféle technikákra? Bár ahhoz is jól jön az FSA, de a ami csúcskártyáknál is sokkal nagyobb teljesítményre lesz szükség a normális képminőséghez...
-
LordX
veterán
Szerintem amíg nem esik a fejlesztők IQ-ja 85 alá, addig nem lesz fenyegetés. Mindent meg lehet csinálni inkrementális képalkotással, amit ray-tracinggel is, csak bonyolultabb kóddal, viszont még mindig nagyságrenddel gyorsabban.
Az, hogy egyszerűbb programozni, egy érdekes kérdés - a végusert nem érdekli, a játékfejlesztőt nem érdekli (mert megveszi a számára tetsző grafikai engine-t, csak kevesen fejlesztenek sajátot)..
7-8 év múlva, amikor már olyan erős gépek lesznek, hogy valós időben lehet sugárkövetni, raszterizálás esetében a maradék teljesítményt fel lehet használni AI-ra, fizikára, vagy bármi más hasznos dologra. És ez nem csak otthonra igaz, ha a játék/szimuláció/virtuális valóság/akármi felhőben/szervereken fut, ugyanúgy igaz.
-
Komplikato
veterán
"akkor rendszermemóriának min.16 Gigának kellene lennie.."
Mi ezzel a gond? Jelenlegi árakon átlag embernek simán elérhető a 8GB, munka gépbe miért nem?"akkor ott vagyunk, hogy a mostani maximálisan engedett 32 Giga Ram kell a gépekbe"
Emlékeim szerint volt itt a PH-n olyan akinek vagy 1-1.5 éve 48 vagy 96GB volt sa munkagépébe. mi ez az "engedélyezett 32GB"? Megdöbbentő módon nem csak Windows otthoni desktop verziója létezik a világon ... 48GB memória kittet meg igen régóta kapni.
"Figyelj arra, aki keresi az igazságot és őrizkedj attól, aki hirdeti: megtalálta." - (André Gide)
-
Abu85
HÁZIGAZDA
Attól függ, hogy a modellezés hova tart. Ha marad a poligon-alapú feldolgozás, akkor van egy szint, ami kivégzi a raszterizálást. Most hogy van tesszellátora a GPU-knak egyre több fejlesztői bemutatón kerül elő, hogy a világ kialakításánál vigyázzanak a magas raszterizálási hatékonyságra, vagyis egyetlen háromszög se legyen kisebb 16 pixelnél. 8 pixeles háromszögméret mellett már 50% alatt van a raszterizálás. A mikropoligon render elméletben 1 háromszög/pixelt jelent, ott már 10% alatti a raszterizálás hatékonysága.
Egyszer talán elérhető az a szint, amikor a ray-tracing hatékonyabb lesz, mint a raszterizálás. De ott van még quad-fragment merging, ami a fenti problémán segít a reszterizálásnál, így kitolhatja a technika élettartamát. 7-8 év múlva érdemes erre visszatérni. Addig felesleges ezzel az elmélettel foglalkozni. Valszeg, ha terjedni is kezd a valós idejű ray-tracing, akkor az 10 éven belül nem lesz jelentős terjedés.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
- i5-9600K , és i5-9400F processzor eladó!
- Beszámítás! Intel Core i9 14900KF 24 mag 32 szál processzor garanciával hibátlan működéssel
- CPU T vennék-keresek.Készpénzes felvásárlás!
- Intel Core i7-11700K processzor (használt)
- Beszámítás! Intel Core i5 4690K 4 mag 4 szál processzor garanciával hibátlan működéssel