-
IT café
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Cathulhu
addikt
válasz paprobert #47955 üzenetére
Ettol fuggetlenul a DLSS csak egy szofisztikalt upscaling, semmi mas, innentol kezdve semmi jogosultsaga a tesztekben (hacsaknem az upscaling algok teljesitmenyet hasonlitjak ossze). Hianyzo reszekre probal egy ML odahaluzni valamit, de attol fuggetlenul igaz, hogy "csalas"
Ashy Slashy, hatchet and saw, Takes your head and skins you raw, Ashy Slashy, heaven and hell, Cuts out your tongue so you can't yell
-
schwartz
addikt
válasz paprobert #47955 üzenetére
Idezem az nv marketing bullshitjet:
DLSS 2.0 offers several key enhancements over the original version:
Superior Image Quality - DLSS 2.0 offers image quality comparable to native resolution while rendering only one quarter to one half of the pixels.Nos, ha "szarabb" vagy "hasonlo" minoseget akarok, akkor mar inkabb fizetek a Stadianak (a toredeket annak mint VGA-ra koltok) a veszteseggel tomoritett stream-ert... (csak vicceltem, azt azert megsem... )
[ Szerkesztve ]
If he dies, he dies.
-
Alogonomus
őstag
válasz paprobert #47961 üzenetére
A DLSS 2.0 sokat segít a magasabb fps elérésében. Abban a kb. 15 játékban, ahol elérhető.
És pont ezért nem lehet még a most bejelentett DLSS 2.1 sem döntő vásárlási szempont. Hetekig-hónapokig "izzadó" szervertömbök által legyártott neurális hálóval egy konkrét játék képkockasebessége jelentősen megemelhető. A játékok 99,9%-án viszont továbbra sem segít ez, azt a néhány támogatott játékot pedig rövid időn belül megunja az ember, és ott marad egy kártyával, ami DLSS nélküli játékokban nem nagy szám.
DLSS 3.0 ezért lett volna nagy fejlődés, ha nem csak kattintásvadász pletykának dobja be az Nvidia. DLSS 3.0 az állítás szerint minden TAA-val kompatibilis játékban automatikusan használható lett volna, így nem kellett volna az Nvidia szervereinek heteket-hónapokat "izzadnia" minden egyes játék esetén a speciális beállítások kiteszteléséhez. -
Robi BALBOA
őstag
válasz paprobert #47961 üzenetére
Szerintem ehhez semmilyen szakértelem nem kell, hogy tudjuk azt, hogy a felskálázott minőség soha nem lesz olyan mint a natív felbontáson számot minőség, esetleg egyre közelebb lehet kerülni hozzá.
Ott van pl a GTA5, 4k-ban tolom, gyönyörű, de inkább még feljebb tolom a render felbontást mintsem lejjebb, mert rendesen meglátszik a minőségen.
Úgy már látnám értelmét ha nagyobb render felbontást is biztosítani tudna a DLSS (mondjuk ha lenne egy Ultra Quality módja) mint a natív felbontás, csak kisebb erőforrás igénnyel, ami pl a VR-nak jól jönne, mert ügye ott nagyobb felbontáson kell renderelni a normális képminőség érdekében.Tuning mindenek felett! Legjobb a Legrosszabb! by Karesz:) , Én: és mivel iszod a Vodkát Karesz? Karesz: Hát,Ö?!?> Haverokkal!:) , Nem az a lényeg honnan jössz, hanem, hogy mit ISZOL!!! by-Bekő Lacika- /Abit és Fatal1ty alaplapokat Keresek!/
-
TESCO-Zsömle
félisten
válasz paprobert #47965 üzenetére
Ha magának a HW-nek a teljesítményét akarod mérni, akkor később is. Aztán külön le lehet mérni a különböző scaling-ek teljesítményét is, ha igény van rá.
De nálam valahogy üti egymást ez a 4K, 8K, 16K, aztán rendereljünk csak 1440p-n, mert többre nem futja...
Elhagyta a ló a zsokét, nem "kihaj" a "csaje"...Sub-Dungeoneer lvl -57
-
félisten
válasz paprobert #48219 üzenetére
elég izgalmasan hangzik amúgy. Kérdés pont az általad említett teszt hardveres dolgon kívűl hogy ez igényel e speciális támogatást az operációs rendszer ( IO, stb) és a szoftverek részéről.
Ha igazából ezt úgy meg tudja oldani AMD, hogy egyként lássa mindenféle varázslat nélkül bármelyik Win. vagy játék akkor zseniális lehet, persze fenntartásokkal, mert a latency és az adatozgatás energiaigénye azért jelentős lehet.Ha nem sikerül FE verziót szereznem a másik oldalon akkor megvárom a BN. megjelenését, mert ezt viszont támogatnám náluk akár kísérleti tesztalanyként is, főleg hogy végre lesz RT is. ezt a két vonalat elég fontosnak gondolom a fejlődés szempontjából.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Mumee
őstag
válasz paprobert #48754 üzenetére
Gondolom azoknak szól, akik azt gondolják hogy 3080 körüli teljesítményt megkapnak AMD-től $500-ért.
A rumor alapján kapsz egy 3080+5% kártyát 300W-ból, tehát a realitás az hogy $700 lesz, mint az NV társa, cserébe picit jobb, picit kevesebbet fogyaszt, talán picit jobb OC headroom. -
arabus
addikt
válasz paprobert #48853 üzenetére
gondolom ilyen streamelős dolognál is lehet haszna.
Xeon Platinum 8490H,8468H,Ryzen 7500F,Gigabyte B650M K,Xeon Phi,i9 7960X,i9 7920X,Xeon w2135,Gskill royal 4400,Gskill Trident Z,Pico 4,Red Devil 7900XTX,Asrock W790 WS,Fury Pro RDIMM 6000,Z590,Intel Cryo,Intel 11900F,Ryzen 5600,Radeon 7600,Radeon 6800...
-
2xar
tag
válasz paprobert #48970 üzenetére
18 év vegyes ATI/AMD-Nvidia használat után, ami kb. 15-20 VGA-t ölelt fel, ki merem jelenteni, hogy időnként mindegyik gyártó drivereivel jó nagyokat lehet szívni. De csak egyik gyártónál emlékszem olyanra hogy szándékosan szopatott a drivereivel, hamisította meg az általam megadott beállításokat és adott sokkal szarabb minőségű képet, csak azért hogy kevésbé tűnjön gyengének a konkurenciához képest.
-
TESCO-Zsömle
félisten
válasz paprobert #49234 üzenetére
"Ez alapján feltételezhető hogy gyakorlatilag minden dinamikus felskálázással fog futni az új címekben."
Vagy "csak" olyan "új" funkciókat fognak használni, ami a régi címekben nincs bent. Ne feledd, a kompatibilitás mód nem portolja át a régi cuccokat az új rendszerre, csupán űgy futtatja őket, ahogy a nyers HW-erőtöbblet engedi. Az achitekturális és API szintű újításokhoz minimum egy remaster kell.
Sub-Dungeoneer lvl -57
-
hokuszpk
nagyúr
válasz paprobert #49234 üzenetére
nekem is van par osoreg programom, ami barmelyik mostani procival szarul megy, hiaba a GHZ -k tomkelege, a bazi nagy gyorsitotarak es a tobbi idokozben gyorsitasra kitalalt aramkorok.
ez van, mert nem hasznalja ki a korszeru utasitaskeszletekbol nyerheto elonyoket, anno fel se merult, hogy tobbszalasra irjak, elcsuszik az idozitese, stb.
amennyit beleneztem az uj konzol azert minenhol joval kozelebb van a 60hoz, mint a regi, nincs ott olyan nagy gaz.
de ha nemtetszik, lehet PS5 -ot is venni, annak magasabb orajelen megy az RDNA2 like gpujaElső AMD-m - a 65-ös - a seregben volt...
-
Jack@l
veterán
válasz paprobert #49279 üzenetére
2-3x-os poligonszámot már nem tudják raster motorral elérni, mert becsuklik az egész pár fps-re. Ahhoz már fullos raytracing kell.
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
MegalodonS
őstag
válasz paprobert #49377 üzenetére
Koszonom!!
Azt hittem, ezzel valamivel kompenzalnak, a GDDR6X elonyevel szemben!A NVIDIA elonye a raktarkeszletben elfogy,mert ugye letezik is, meg sem!!Mert ugye ez mar eleg durva amit csinalnak, az MSI az EBAY-en ertekesit inkabb!Azert annyira rossz kartya nem lesz a NAVI es ha lehet venni, inkabb veszek AMD-t, mint varni a ''csalo NVIDIA'' kartyara honapokat!!
-
-
Malibutomi
nagyúr
válasz paprobert #49486 üzenetére
Szerintem nagynak is eleg jo...a 3080 kornyeken van, az mar nem rossz. Remelem hogy van meg valami a tarsolyban de ha ez kaphato lenne 605$-ert mig a 3080 kevesebb rammal most nem kaphato 1000$ alatt sehol akkor csak a hulyek fognak 3080-at venni szvsz
En 1080-rol valtok, 3080 lett volna a kiszemelt, ha a Navi 10%-on belul lesz hozza akkor en siman benevezek egyre.
[ Szerkesztve ]
-
Callisto
őstag
válasz paprobert #49505 üzenetére
Mondod ezt arról, aki tíz évig grafikus volt. Professzionális monitorokat és nagy nyomdagépeket (rotációsakat stb.) kalibrált akár szemre is jó pontosággal. (Normálisan nyilván mérőműszerekkel.)
De a placebó, az placebó. Az elvakultság pedig elvakultság. Igazam van?
Fura Nvidiám volt, van és lehet lesz is még, de mégis nyitott szemmel járok és nem sugárban látok.
Az viszont tény, hogy az RTX szériából nem volt lehetőségem egymás mellett megnézni. Lehet ott már nincs meg az a szemmel látható különbség.
(És nem, nem színbeli különbségről van szó a VGA-k között. Textúrázás, AA főleg.)[ Szerkesztve ]
"A wise man can learn more from a foolish question than a fool can learn from a wise answer." - Bruce Lee
-
Malibutomi
nagyúr
válasz paprobert #49915 üzenetére
A mostani tweetek alapjan az a 80CU de nem csucsrahuzott modell volt.
Esetleg meg a 72CUs lehetett talan.
Amugy igy hogyha az AMD ilyen kozel kerulne az NV-hez akkor nem is ez a generacio az erdekes...mindiket ceg mint az allat fogja hajtani az ezutaniakat a kovetkezo egy evben. Ki jon ki majd azokkal eloszor es mit tudnak az lesz a nagy kerdes.
A mostani helyzet pedig elegge ugy nez ki mint anno a 680 vs 7970 felallas
[ Szerkesztve ]
-
Petykemano
veterán
válasz paprobert #49915 üzenetére
Szerintem nem nevezték volna Bignavinak.
Az 5700XT és a 2080Ti között 4K-ban ~60% a differencia.
még ha generózusan +15% "IPC", +30% frekvencia növekedéssel is számolunk, akkor se ugraná meg a 40CU-s navi a 2080Ti-t 4K-ban.Ahhoz hogy valami ilyesmi történjék, ahhoz át kellett volna szabni a WGP-ket valahogy úgy kellett volna kiszélesíteni, mint ahogy az az NVidia tette. Noha a Mark Cerny mutatott olyan képet, hogy az RDNA2 CU hízottabb, mint a PS4 CU, de az mástól is lehet. Meg annak meg akkor reflektálódnia kéne a tflops számban.
Szerintem a 40CU-s lapkának egyébként nem target a natív 4K.
Találgatunk, aztán majd úgyis kiderül..
-
Yany
addikt
válasz paprobert #50088 üzenetére
Részben igazad van, de egy dolgot figyelmen kívül hagysz. Noha én is azt gondolom, hogy a 10 GB méltatlanul kevés a 3080 amúgy istenes tempójához viszonyítva, de(!)
Amikor a 3-4 GB kevés volt, akkor a felsőházban tök alap(!) volt a 8 GB. Még a középben is (ld. RX480). Most viszont a generáció tetejénél is adott a 10 GB. Lehet, hogy lesz 20-as kártya (sőt, több, mint valószínű), de iszonyat elterjedt lesz a 10 GB a felsőházban(!) is, vagyis egy-két lefizetett techdemót (értsd játék, ami inkább kirakat) kivéve nem lesz épeszű fejlesztő, aki a 3080-asokon túlmutató játékot fejlesszen úgy, hogy lemondással járjon a tulajdonosaiknak. Tudniillik az a játék, amit nem pénzelnek, az abból él, hogy minél több gépen menjen minél kompromisszummentesebben. Szóval igen, a 10 GB kevésnek tűnik (mert az), de ennyi van. Vagyis erre fognak fejleszteni, hogy ez ne okozzon gondot, ergo a Radeonokon az említett kevés kivételtől eltekintve ott fog pihenni extra 6 GB VRAM. Én ezt így látom. Adok ennek 90% esély és 10 a tévedés joga.
szerk.: egy apró gondolat, ami mellettem szólhat még: a GeForce-ok piaci dominanciája megkérdőjelezhetetlen, tehát mennyiségileg is célja a fejlesztőknek a többség kedvében járni, nem csak arról van szó, hogy felső/alsóház.
[ Szerkesztve ]
Építs kötélhidat - https://u3d.as/3078
-
Callisto
őstag
válasz paprobert #51360 üzenetére
Tehát nézzek meg agyontömörített videót ahol semmit se látni úgy ahogy megjelenik a valóságban és mozgás közben. És én nem értek a témához...
Szóval én inkább személyesen tesztelgettem és a képérzet, a minőségérzet és ha még nézel is nem csak bámulsz ég és föld. Nagyon jól tudom miről beszélek.
(DS-ben azért nem ég és föld, de nehogy már egy olyan játékot vegyünk átlagnak, ahol alig van valami betanulni való és sivár.)[ Szerkesztve ]
"A wise man can learn more from a foolish question than a fool can learn from a wise answer." - Bruce Lee
-
gejala
őstag
válasz paprobert #53034 üzenetére
"Az Ampere műszaki szempontból alig hoz újat"
Így van. Nem tudom, miért hiszi mindenki azt, hogy az Ampere többet tud. Semmi olyan feature nincs benne, amit Turing ne tudna. Legfeljebb a SAM támogatás lesz Ampere exkluzív, de nem kizárt, hogy Turing is megkapja.
A Turing volt nagy váltás Pascal után. Csak megjelenéskor még nem jött ki az új arch előnye és sokan még mindig azoknál a számoknál vannak leragadva. De modern motort használó játékban egy 2080S szépen elhúz már a 1080Ti-től (~30%) és a 2060S is majdnem befogja. Lásd RDR 2 vagy HZD.[ Szerkesztve ]
-
Raymond
félisten
válasz paprobert #53208 üzenetére
Semmi ertelme annak amit felvazoltok. Akkor lenne realis ha lenne termek magas aron, a haleyzet viszont az hogy nincs semmi. Egy ceg se hoz ossze olyat szandekosan hogy nincs beveteluk. Az NV-nel mar nincs Turing es meg nincs Ampere, gyakorlatilag nem tudnak az emberek mit venni. Az AMD--nel a jovo het kozepen lesz ugyanez a helyzet hogy mar nincs 5000-es sorozat es meg nincs 6000-es sorozat. Az ev annak az idoszakaban amikor a legnagyobb forgalmat generaljak nincs bevetel. Aki azt mondja ezt a ket ceg direkt csinalta az valami bizarr paralellvilagban el.
Privat velemeny - keretik nem megkovezni...
-
félisten
válasz paprobert #53208 üzenetére
Olyan hihetetlen lenne egy virtuálisan generált, mikrotargetált és mikromenedzselt hiánygazdaság?
Csakhogy nem pusztán az asztali dVGA piac létezik.
Én el tudom képzelni, hogy az nVidia némileg alábecsülte az RDNA2-őt, az általános piaci igényeket, és úgy volt vele, hogy akkor picit elengedi a 2020Q4-et ezen a téren. Esetleg tudva arról, hogy az AMD is gyártási kapacitás szűkében van.Anyagilag bőven belefér nekik, feltehetően előre látják a 2020Q4-es megrendelésállományt, és azt, hogy honnan mennyi pénz jöhet be (lásd üzleti tervük).
Az AMD pedig kényszerpályán van...
Részvényes örül ahogy olvassa az őrületről szóló híreket, a per-darab profit kiugró, és az életciklus 15%-át(kb 3 hónap) feláldozni illetve a vevők kiszolgálását eltolni bőven megtérül egy hosszabb időtartamra vonatkozóan.
A kevés eladott DIY asztali dVGA és a magas felár nem az nVidia pénztárcájában realizálódik, gondolom sejted.Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.
-
Jack@l
veterán
válasz paprobert #53509 üzenetére
Az a furcsa, hogy a raytracing nincs mágjára küldve. Miután kiderült hogy nem fekszik az amd-nek (ezek szerint nem csak egy nagy cacheből áll gyorsítás, mint amit a főpap ráhúzott anno a túloldalra)
[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Abu85
HÁZIGAZDA
válasz paprobert #53509 üzenetére
Ez a bejegyzés nem nektek szól, hanem a címzettnek. Ti nem értenétek meg, hogy mi miért történik. Most nyugodtan vegyétek meg a hardvereket a DXR-hez, mert alternatíva nincs, de egyik specifikáció sem fejleszthető. Mindkettő erősen belerúg a jövőbe. De nagyon röviden:
A DXR 1.0-val az a gond, hogy erőforrás-pazarló, elképesztően az, mert egy egyszerű bekötési táblából dolgozik. Ezért dobta ki ezt a bekötési táblát a DXR 1.1, amivel behozta az übershadereket, de maga a feldolgozási modell teljesen megakadályozza a másodlagos sugarakra a koherenciamotor beépítését. Most ez nem gond, mert egyik hardverben sincs, de mi van, ha akarunk? A DXR 1.1 mellett ez lehetetlen. Emellett a Microsoft már most elkészített egy olyan kiterjesztést, ami a traversal részegységeket kivégzi a hardverből. Hiába építette ezeket be az NVIDIA, nem fognak működni traversal shader mellett. Ez jelen pillanatban egy early access bűvészkedés, mert úgy néz ki, hogy se a gyártók, se a Microsoft nem tudja, hogy mit akarnak. Most leginkább egy nagy resetet, ezért jön a traversal shader, amihez majd újra kell tervezni a mostani specifikációkat egy DXR 1.2-ben, vagy 2.0-ban, de azok ismét nem lesznek kompatibilisek visszafelé.
Ha a DXR 1.1-et akarjuk továbbvinni, akkor viszont hardveresen át kell tervezni a GPU-kat, hogy úgy működjenek, ahogy a CPU-k, képesek legyenek dinamikus erőforrás-allokációra. Ez megoldható, csak tranzisztorigényes, és gyakorlatilag a következő generáció előrelépését ez ki is végzi, mert se koherenciamotort nem tudsz építeni a hardverbe, se extra ALU-kat, mert át kell alakítani a regisztereket kezelését. Ráadásul a traversal shaderrel még bukod a traversal unitot is, ha erre esetleg épített egy gyártó. A részemről vásárolhattok early access hozzáférést ezekhez, csak legyetek tisztában azzal, hogy bármikor jöhet egy hard reset.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz paprobert #53514 üzenetére
Az első bekezdés csak annyi, hogy egy bonyolult dolgot próbálunk itt leegyszerűsíteni, hogy nem jó. Igazából a DXR 1.0 és 1.1 is működik, csak mindkettőnek olyan defektjei vannak, amelyek abszolút zsákutcát jelentenek. Ha a DXR 1.0 nem lenne zsákutca, akkor nem jött volna egy olyan változás, mint a DXR 1.1. A Microsoft konkrétan még a kompatibilitással sem törődött. Ezzel megoldottunk egy pár problémát, és teremtettünk egy rakás újat. Eközben jobban is meg lehetett volna ezt oldani, mert például a DXR-nek az egyik legnagyobb baja az volt, hogy már az elején kizárta a Microsoft a programozható bejárást. Egyszerűen nem tartották járható útnak, és mind a DXR 1.0 és 1.1-et is ennek megfelelően készült. Aztán hova jutottunk? Igen, jön a traversal shader, vagyis a programozható bejárás. Tehát mindaz, aminek a hiánya miatt egy rakás limitációt vezettünk be az API-ba végül csak eljön, és közben a limitációk maradnak, mert nem lehet olyan egyszerűen azt mondani a piacnak, hogy "early access technológiába invesztáltatok, igazán nagy bocsika érte".
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Petykemano
veterán
válasz paprobert #53838 üzenetére
"Az RDNA1 150 dolláros extraprofittal nyitott a piacon, a szokásos árazáson felül. Ilyen marzs mellett nehogy már sz*ros 80 mm2-en szőrszálhasogassunk ha kérhetem. Nincs technikai indok a magas árazásra."
De gondolj a brutális kapacitáshiányra. Meg ami még jön, ha az Intel is átnyergel ide.
Én arra számítanék, hogy talán idén őszre - amikor lecseng a konzol - talán elérheti a 6700/XT ára az 5700/XT nyitóárát. És akkor még örülni fogunk, hogy hát jó, végülis 2080S $400-450-ért nem is olyan rossz ajánlat.Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
válasz paprobert #54110 üzenetére
Ezt hogy érted?
Ezek - a pascal és különösen a turing óta diktált áremelkedés körülményei között értelmezve - teljesen normális árak. (Mármint: "normális")Ugyanannyiba kerül, mint az előző generáció, de ahhoz képest mittomén 20%-kal gyorsabb és hozza az RT-t. Többet kívánni se lehetne.
/de/Találgatunk, aztán majd úgyis kiderül..
-
Jack@l
veterán
válasz paprobert #54660 üzenetére
Azt meg ugy hivjak, hogy mezei felskalazas. Ha evek alatt nem sikerult meg azt se megcsinalniuk ertekelhetore, bazi nagy baj van a szoftveres reszlegen.
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Abu85
HÁZIGAZDA
válasz paprobert #55366 üzenetére
A CPU-t miért pörgetné?
A képminőség az független a hardvertől. Az a beállítási szinttől függ.
A régi hardvereken nem fog az ultra quality sokat hozni, mert hiányoznak az ötéves hardverekből azok a képességek, amelyek azt gyorssá teszik.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.