Új hozzászólás Aktív témák

  • X2N

    őstag

    válasz fLeSs #45608 üzenetére

    Azért pár fontos dolog kimaradt a videóból, pl mi a különbség az unbiased és biased render között, hogy a subsurface scatteringet is számolják anyagon belül, ebből is van több féle metódus, hogy szimulálják a "volume"-okat mint a füst, tűz, stb effekteket raytracingnél, a videóban a blender cycles-t mutogatták, egy egy általános render engine, de egy jobb render engine-ben már fény hullámhosszal számolnak(spectral renderer)nem rgb értékekkel, ahogy a videóban is mondták, komolyabb engine-k tudnak fénytörést(caustic+dispersion) is szimulálni pl vizen, vagy üvegen belül így tudsz víz alatti fénytörést szimulálni(szivárványt pl( ahoyg a Pink Floyd lemez borítón a prizmával), vagy optikai lencserendszereket is lehetséges szimulálni, ha pl lemodellezed egy alap objektívet a komplett lecserendszerrel és beteszed a virtuális kamera elé szimulálhatod a chromatic aberration-t, homorú/domború torzítást, és más optikai hibákat amitől megint csak élethűbb lesz a 3D rendered...és oké hogy most a valóságot próbáljuk meg leszimulálni de ezt meg is kell jeleníteni a monitoron ami megint csak problémás dolog mert a leszimulált 32bites dinamika tartományt össze kell nyomorítani kisebbre a legtöbb mai monitorok miatt amik csak 8 bit-es színinformációt tudnak megjeleníteni és legelterjedtebb SRGB szín tartományra kell alakítani a rendert, erre is van több metódus(Filmic, ACES, AgX, Log).


    [ Szerkesztve ]

Új hozzászólás Aktív témák