Keresés

Új hozzászólás Aktív témák

  • Ksix

    tag

    válasz MaCS_70 #1 üzenetére

    „egyáltalán hogyan ellenőrizhetik a tulajdonomat képező eszköz tartalmát”
    Úgy, hogy aktívan a hozzájárulásodat adod, amikor igénybe veszed az opcionális iCloud szolgáltatáson belül a szintén opcionális iCloud Fotók szolgáltatást. Része lesz a felhasználási feltételeknek, amit el kell fogadnod, majd még külön be is kell kapcsolnod, hogy igen, te szeretnéd hogy feltöltse az eszköz a képeidet a felhőbe, ahol az Apple és a hatóságok törvényben meghatározott módon amúgy is hozzáférnek, az összeshez, nem csak a pedofilnak jelöltekhez.

    „kizárólag engem illető adatokhoz egy szabályozott és garanciákkal ellátott jogi eljáráson kívül bárkinek hozzáférése legyen -- különösen egy adatokra éhes magáncégnek”
    Ha el is tekintünk az előzőtől, akkor is, az eszközön történő ellenőrzés pont arról szól, hogy a magáncégnek ne legyen hozzáférése. Nem a magáncég kapja meg a képeket, és ellenőriz, hanem az oprendszer. Ha én feltelepítem a Windowst egy számítógépre, az nyilván hozzáfér a gépen tárolt összes adathoz, de ez még egyáltalán nem jeleni azt, hogy a Microsoft is hozzáférne azokhoz. Vagy, az Android is hozzáfér a telefonon készített összes képhez, hiszen vissza tudom nézni azokat a telefonon, akkor ezzel egyben az adatokra éhes Google-nek is hozzáférése lenne az összes képhez?!

    „Ha pedofil tartalmat tudnak keresni, akkor a sima és a házi pornót is, akár csak a templomi felvételeket, a politikai tartalmakat és az orvosi anyagaimat”
    Nem, mert a keresés nem a látható tartalom elemzésével dolgozik, nem képfelismerő algoritmus. Csak generál egy azonosítót a képekről, amit összevet a már ismert pedofil képek adatbázisában tárolt képekről ugyanígy generált azonosítókkal. Amíg a házi pornó, templomi, politikai és orvosi anyagok nem kerülnek be a pedofil adatbázisba, addig nem tud keresni azokra.

    „és ha már egy Apple jellegű cég is jogosultságokat kaphat, ott szerintem megjósolható a sok ártatlan meghurcolásával járó túlkapások sorozata.”
    A Google/Facebook/Microsoft/stb. több mint 10 éve használja ezeket a jogosultságokat, és keresi a pedofil tartalmakat, ennyi idő alatt hány ártatlant hurcoltak meg miattuk, és milyen túlkapások voltak eddig? Másrészt, ha a telefon beazonosít 30 db olyan képet, amik már léteznek és szerepelnek a pedofil képek adatbázisában, és amiket csak ekkor, megnéz egy Apple alkalmazott is, és ő is azt látja, hogy valóban azokról a pedofil képekről van szó, és csak ezután kerül elő a hatóság, hogyan fordulhatna elő ilyen esetben „ártatlan meghurcolása”? És, ha mégis előfordul, a hatóságokon kívül ki tudná ezt megállapítani? Döntse el az Apple/Google/Facebook/Microsoft/stb., hogy áh, ez biztos csak egy ártatlan illető?

  • Ksix

    tag

    válasz ddekany #7 üzenetére

    1. Mert amíg 2019-2020-ban a Facebook 36 191 727, a Google 995 987, addig az Apple csak 470 bejelentést tudott tenni az esetleges pedofíliával kapcsolatban, nagyon ideje volt kitalálniuk erre valamit.
    2. Az Apple nem a felhasználói adatainak az eladásából él, mint a Google/Facebook, így nincs jelenleg infrastruktúrája az iCloud tartalom szkennelésére. (Ebből is adódnak a fenti számok, a többiek nyilván amúgy is folyamatosan elemzik a profilozáshoz az összes feltöltött adatot, nulla erőforrás igénye van, hogy eközben még pedofil képeket is keressenek.) Ha már csinálnak erre valamit, miért ne a telefonra készüljön? A macskás képek felismerését sem a felhőben oldották meg, mint mások, hanem a telefonon.
    3. Ha a telefonon történő ellenőrzéssel még a feltöltés előtt ki tudják szűrni a pedofil képeket, akkor a későbbiekben sem lesz szükségük arra, hogy hozzáférjenek a felhőben tárolt tartalomhoz. Így majd úgy tudják bevezetni az Apple által sem elérhető, titkosított iCloud szolgáltatást, hogy nem lehet majd arra felhozni azt az érvet, hogy de hát a titkosítás miatt majd odamegy az összes pedofil, és igazából őket védi az Apple, amikor nem hajlandó feltörni/kiskaput építeni a szolgáltatásba. Persze ez a legutolsó csak egy elmélet, de nem lenne meglepő, ha jövőre bejelentenének egy ilyen szolgáltatást.

  • Ksix

    tag

    válasz ddekany #15 üzenetére

    Semennyire, ha jailbreakelhető egy telefon, akkor azon az ellenőrzést is ki lehet iktatni. De nyilván egy feltört és módosított szoftvert futtató készülékkel kapcsolatban a gyártót már nulla felelősség terheli.

  • Ksix

    tag

    válasz MaCS_70 #16 üzenetére

    Ez nem olyan hash, mint ami a fájlok vagy jelszavak ellenőrzésére szolgál (MD5, SHA1, BCrypt stb.), amiknél már egyetlen bit változásának hatására új hash érték keletkezik. Pont ellenkezőleg, jól tűri az egyszerűbb képszerkesztéseket is, és azok után is ugyanazt a hash-t eredményezi, mint amit az eredeti kép.

  • Ksix

    tag

    válasz MaCS_70 #19 üzenetére

    Pl. az Apple oldalán is ott vannak az infók, ők NeuralHash márkanéven futtatják a saját hash algoritmusukat, úgy szerepel ezekben a doksikban:
    https://www.apple.com/child-safety/
    Általánosságban pedig perceptual hashing, vagy perceptual image hashing néven futnak ezek a módszerek, arra érdemes rákeresni (én olvasni jobban szeretek, de a YouTube-on is vannak videók a témában), két random rövid oldal:
    http://www.bertolami.com/index.php?engine=blog&content=posts&detail=perceptual-hashing
    https://jenssegers.com/perceptual-image-hashes
    A elsőn jók a mintaképek, hogy milyen torzítások után minősül még hasonlónak 2 kép, a másodikon meg jól látszanak egy lehetséges hash számolás lépései.
    De már az Apple által jelenleg használt konkrét módszert is visszafejtették:
    https://github.com/AsuharietYgvar/AppleNeuralHash2ONNX
    Azt mondja az Apple, hogy ez még nem a végleges, de majd ha készen lesz, azt is nyilvánosságra hozzák.

    [ Szerkesztve ]

  • Ksix

    tag

    válasz bambano #22 üzenetére

    1. Miután ez egyelőre csak az USÁban lesz, a telefonodon itthon nem történik semmi. (Hacsak nem hazudod amerikainak magad, de akkor meg csak magadat okolhatod.)
    2. De ha itt is lenne, akkor is, mindkét ellenőrzés EU-n belül maradna, tehát nem számítana.

  • Ksix

    tag

    válasz nuke7 #24 üzenetére

    Ez valami rossz vicc?! Egy digitális laposföld hívő?! Ordas nagy tárgyi tévedések, szakmai ismeretek teljes hiánya (hash = kriptográfiai hash), nem értem hogy működik, nem nézem meg hogy működik, de én olvasok a sorok között, ezért tudom, hogy így működik, teljesen biztosan ezt és ezt csinálja, 0 szakamai érv, bármilyen minimális ténnyel való alátámasztás nélkül?! Azt a rohadt életbe, ennyi demagóg bullshit egy kupacban, nem semmi!
    Könyörgöm, szakemberek videóít nézzük, ha valaminek a működésére vagyunk kíváncsiak, ne kuruzslókét. Ugyan ebben is vannak apró tárgyi tévedések, de legalább szakmailag alapos:
    How Apple scans your phone (and how to evade it) - NeuralHash CSAM Detection Algorithm Explained
    Mert már annyira pontosan lehet tudni, hogy hogyan működik, hogy reprodukálták is, ahogy azt már pár hozzászólással előbb linkeltem is, és aki ért hozzá, az demózni is tudja:
    NeuralHash is BROKEN - How to evade Apple's detection and forge hash collisions (w/ Code)
    Így néznek ki a megalapozott, szakmai videók, ellentétben azzal, amikor valaki fog egy mikrofont, és folyamatosan ismételgeti, hogy a föld az lapos, mert a föld az lapos, érted, lapos.

  • Ksix

    tag

    válasz nuke7 #28 üzenetére

    Akkor miért nem arról beszél? Miért a kriptográfiai hash-ról beszél, amikor ahhoz ennek semmi köze, miért arról beszél, hogy mit csinál a Facebook, Google, Tesla? Mi köze van ezeknek a cégeknek az Apple CSAM megoldásához? Tipikus politikusi érveléstechnika, soroljunk fel egy csomó, a tárgyhoz hasonló, de valójában semmilyen formában nem kapcsolódó, ellenőrizhetően igaz állítást, azzal majd a mi teljesen alaptalan állításunk is alátámasztottnak tűnik. Szerinte a telefon kamerája valós időben felismer dolgokat, és azonnal jelenti az Apple felé, ezt ő honnan tudja, megtalálta a kódot a telefonon, megfigyelte a hálózati forgalmat? Nem hinném, mert láthatóan IT alapokkal sincsen tisztában, összekever két teljesen különböző technológiát (BLE, UWB), olyan dolgokról hazudik, amit otthon minimális IT tudással bárki le tud ellenőrizni, hogy nem is úgy van stb. Miért nincsen semmi indoklás, magyarázat a kijelentéseire? Így van, csak azért, mert én ezt mondom, demagógia csúcsra járatva.
    Egyébként az iPhone-okon, Apple által is bejelentve, az iOS 10 óta vannak képfelismerő algoritmusok, amik megmondják, hogy ez egy cica, az egy melltartó, az meg ott a Kovács Pista, tehát már ~5 éve folytathatnák ezt a világkémkedést, ha az lenne a cél, ezeket már nem kell belerakni. De a fickó szerint nem ezeket az évek óta meglévő dolgokat használják csendben és titokban, hanem most, nagy felhajtással bejelentenek egy új módszert, amit jelenleg is bárki letölthet és ellenőrizhet, hogy mit csinál, és azzal akarnak kémkedni. Aha, ez így tök logikus, értem, biztos így is van, hiszen ő azt mondja!

  • Ksix

    tag

    válasz nuke7 #29 üzenetére

    Mit értesz azon, hogy értelmezni?! A NeuralHash model nem értelmez, megnézi a képet, és generál hozzá egy hash értéket. Mint ahogy az md5sum program sem értelmezi a fájlt, csak megnézi a benne lévő bájtokat és azok alapján kiszámolja az md5 értéket. És nyilván az összes (iCloudba feltöltendő) képet átnézi, ez a módszer lényege, mindegyiket megnézi, mindegyikhez generál egy hash értéket, amit aztán majd össze lehet hasonlítani a pedofil képek hash értékeivel. Hol van itt a hazugság?!

  • Ksix

    tag

    válasz nuke7 #30 üzenetére

    Igen, innen indultunk, hogy nem kriptográfiai hash-ról („sima” hash) van szó, hanem perceptual hash-ról:
    Perceptual Hashing
    Perceptual Hashing
    Perceptual image hashes
    Erre van többféle módszer, egyik sem „értelmezi” a képet, csak kiszámolnak rá egy olyan hash-t, ami hasonló képek esetén hasonló lesz.
    Hogy az Apple módszere mit csinál, azt itt lehet megnézni:
    https://github.com/AsuharietYgvar/AppleNeuralHash2ONNX
    Letöltöd, adsz neki egy képet, és kiköpi a NeuralHash értéket. Raksz a képre vízjelet/átméretezed/újratömöríted, és megnézheted, hogy mennyire változik. Semennyire.

  • Ksix

    tag

    válasz nuke7 #32 üzenetére

    Továbbra se értem, hogy mi a hazugság, hol az ellentmondás a videóban? Az első pillanattól kezdve azt mondta az Apple, hogy a pedo képek hash értékeit csak ő kezeli, és nyilván csak ő juttathatja el a telefonokra az összehasonlításhoz. Mit köze van ehhez a NeuralHash-nak, és mit hazudnak erről a 6. percnél?
    Nem jól érted a rendszer működését. Az AI modellnek semmi köze a CSAM képekhez, az csak arra lett betanítva, hogy perceptual hash-t generáljon a képből, hogy össze lehessen hasonlítani egy másik kép perceptual hash-ével. Ami egyezni fog, ha eléggé hasonló a két kép. Az AI nem csinál semmilyen összehasonlítást, csak kiköp egy számot. Töltsd le, próbáld ki!
    Ez egy NeuralHash érték: a08c853d711ee3edb362f40b. Ha ebből vissza lehetne állítani az eredeti, néhány MB-os képet, akkor rögtön meg is lenne a világ leghatékonyabb tömörítési eljárása.

  • Ksix

    tag

    válasz bambano #34 üzenetére

    Miért lenne törvénysértő, hol van ez a linkelt poszt? Microsoft már több mint 10 éve feketelistázza a CSAM képeket, és nincs olyan nagy internetes közösségi, tartalom, vagy tárhely szolgáltató, aki ne csinálná ugyanezt. Embereket tartóztattak le ilyen bejelentések alapján, csak szólt volna már a rendőrség, hogy ne csinálják, mert törvénytelen.

  • Ksix

    tag

    válasz bambano #40 üzenetére

    Oké, sejtem már, hol van a félreértés. A felsorolt cégek nem a konkrét CSAM képeket kezelik, az tényleg törványsértő lenne, hanem csak a képek hash értékeit, amiben viszont már nincsen semmi törvénytelen. A hash-t minden esetben a képeket törvény alapján kezelő NCMEC készíti el a cégeknek.

  • Ksix

    tag

    válasz nuke7 #43 üzenetére

    Tényleg nem értettem, amit írtál, de próbálkozom, és most már azt hiszem igen, és ennek fényében próbálom én is érthetőbben elmondani, hogy én mire gondoltam.
    A sima hash mindkettőnknek megvan és világos. Amit én szerettem volna megértetni veled, hogy van egy úgynevezett perceptual hash is, amit a sima hashoz hasonló módon a kép bájtjaiból számolnak ki, egyszerű matematikai módszerekkel, mindenféle AI nélkül, teljesen ugyanúgy, mint az md5, sha1 hash-eket. Csak amíg az md5 számítás eredménye olyan, hogy egy bit változtatás az eredeti adatokon új md5 hash-t eredményez, addig ezek a számítások mondjuk a képet fele felbontásra összenyomva, és az így keletkező teljesen új bájtokon végigszámolva pontosan ugyanazt a hash-t fogják adni. Mert így találták ki az algoritmusukat. Tehát nem azért kell a NeuralHash, mert csak értelmzéssel/felismeréssel lehet előállítani egy képre vonatkozó, képmanipulációt tűrő hash-t, ilyet sima matekkal is létre lehet hozni, ahogy az md5-öt. Csak egyszerűen azok a számítások túl lassúak, nagyon terhelnék a telefon, lemerítenék stb. Az AI meg hardveresen gyorsított, egyszerűbb azt betanítani egy csomó képpel és egy csomó hash-hal, hogy ez a kép, ez a hash, hasonló kép, ugyanaz a hash, teljesen más kép, teljesen más hash. (Oké, van itt egy óriási leegyszerűsítés, de az a valóságot nem torzítja.)

    „Pont azt a techinkát használják, ami megmondja, hogy kutya, melltartó vagy Kovács Pisti van-e az adott képen, csak ezt kvázi titkosítják, ez a neural hash.”
    Na ez az, ami totális tévedés, és semennyire sem igaz, és mégis ezt ismételgeti itt mindenki, én meg úgy érzem, hogy hiába is magyarázom, hogy de hát ez nagyon nem így működik, mert úgy tűnik, nincs meg a szükséges AI ismeret hozzá (pedig aztán én sem tudok túl sokat). Úgyhogy most próbálom két különböző hasonlattal is megvilágítani, hogy ez miért tévedés. Az első, a mondatod kifordítása:
    Pont azt a technikát, a számítógépet használják arra, hogy táblázatot lehessen kezelni Excelben, csak ezt kvázi titkosítják, és ez a Fortnite.
    Attól, hogy egy számítógéppel lehet Excelezni, meg Fortnite-ozni, attól még nem lehet Excelben Fortnite-ozni, és a Fortnite-ban sem táblázatkezelni. És nincs olyan paraméter, amit az Excelbe beírva Fortnite lesz belőle, és a Fortnite-nak sincsen titkos billentyűkombinációja az Excellé váláshoz.
    Az AI csak egy üres vászon, semmit nem tud, meg kell tanítani mindenre. Az az AI, amit macskák, melltartók és emberek felismerésére tanítottak, az nem tud NeuralHash-t produkálni, és fordítva, teljesen máshogy van huzalozva, teljesen más a kimenete, teljesen más az egész. Nem lehetséges olyan csodaparaméter, amit átállítva ilyen történhetne, a komplett AI modellt le kellene cserélni ehhez, egy olyanra, ami azt tanulta. A képfelismerő és a NeuralHash AI-ban csak annyi közös, hogy mind a kettő AI, pontosan, ahogy az Excelben és a Fortnite-ban is csak az közös, hogy mind a kettő program.
    Második hasonlat, az ember. Veszünk egyet, és hosszú évek alatt megtanítjuk a teljes történelemre, fejből tud minden eseményt, évszámot stb. Bármilyen történelmi kérdésre azonnal tudja a választ. Aztán adunk neki egy kétismeretlenes egyenletet. Pontosan annyira fogja tudni megmondani az eredményt, mint amennyire a NeuralHash meg tudja mondani, hogy mi van a képen. És hiába rugdosod, viszel be akármilyen paramétert, nem fogja tudni megoldani. (De amíg egy embert meg lehet tanítani több dologra, addig egy AI-t nem igazán, ezért is nem kell tartani attól, hogy öntudatra ébrednek és átveszik a hatalmat. Egy-egy dolgot nagyon jól megtanulnak, de képtelenek a különböző tudást kombinálni.)
    De ez is egy olyan dolog, amit bárki le tud ellenőrizni, hiszen ez az AI modell letölthető, ki lehet próbálni, be lehet tölteni egy modell megjelenítőbe, meg lehet nézni a neurális hálózatot, hogy nincs rejtett paraméter, egyetlen kép bemenete van, tesztelni lehet, hogy mi történik ha vizuálisan hasonló tartalmú képeket kap (ugyanazt a hash-t dobálja ki), és mi lesz, ha mondjuk 8 db vizuálisan teljesen különböző, de macskát tartalmazó képet adunk neki (totálisan különböző hash-okat fog adni). És én erről beszéltem eddig, hogy a NeuralHash generálásba az Apple nem tud észrevétlenül beleavatkozni, mert amint változtat, lecseréli a modellt, rögtön megint meg lehet nézni, hogy mi változott, mit csinál máshogy az AI.

    És értem a perspektívát, így másodszorra, de én sem vontam sosem kétségbe, hogy kizárólag az Apple tudja, hogy valóban csak CSAM hash-ra szűrnek-e, vagy más képek is bekerülnek. Hiszen ez nem csak a dokumentációból derül ki pontosan, hanem az első pillanatban ők is bejelentették, hogy igen, ők gondoskodnak erről, és nem engednek majd később sem a kormányzati nyomásnak. Amit ízlés szerint, vagy elhisz az ember, vagy nem. Mint ahogy azt is valaki vagy elhiszi a Microsoftnak, hogy ők a saját ilyen PhotoDNA algoritmusukat csak a felhőben használják, vagy ellenkezőleg, azt hiszi, hogy kormányzati nyomásra már rég beépítették a Windowsba is, és évek óta kutatják már vele a felhasználók gépeit. Az IT-ben elég sok dolog szól a bizalomról.
    Olyan viszont nem lehet, hogy nem csak az iCloudba feltöltött képeket ellenőrzik, mert vagy az összes kép felmegy, vagy egy sem. A hálózati forgalmat nagyon jól meg lehet figyelni, rögtön lebukna az a telefon, ami kikapcsolt iCloud mellett is küldözget ilyen adatokat.
    „és amúgy a te általad linkelt videóban hangzik el, hogy a perceptual hash-ből rekrálható a kép, ezért titoksítják tovább.”
    Ez totálisan kizárt, lehetetlen, úgyhogy ha tudod, írd már meg az időpontot, hogy mikor hangzik ez, hogy meghallgassam, mit mond valójában. Hacsak nem egyszerű szótévesztés volt. De azért is biztos, hogy nem ezt mondta, mert a második videó pont ennek az ellenkezőjéről szól. Mert azzal, hogy megvan az AI modell, neki lehetett állni a gyenge pontok támadásának, és pont ezt csinálja abban a videóban. Szintén ott a letölthető, kipróbálható kód, ami forced hash collisiont generál, azaz előállít egy olyan képet, ami ugyanazt a NeuralHash-t eredményezi, mint egy emberi szem számára ránézésre teljesen más kép. A második videóban az alsó kutyás kép, és a Titanic kép NeuralHash értéke teljesen ugyanaz. Ha ebből a hash-ből tényleg visszaállítható lenne a kép, akkor melyik jönne vissza, a Titanic, vagy a kutyák? De feltölthetem ide azt is, amivel én kísérletezem, egy kép, meg a vízjelezett változata, ugyanaz a NeuralHash-ük, ha abból vissza lehetne állítani, melyik jönne vissza, a vízjeles, vagy az anélküli?
    Mondjuk az első videó készítésekor még nem találták meg az AI modellt, lehet hogy csak feltételezte az Apple leírása alapján, hogy hogyan fog működni, és azért mondta/gondolta, hogy visszaállítható. Az viszont biztos, hogy a másnapi videójával ezt ő is cáfolja.

  • Ksix

    tag

    válasz nuke7 #44 üzenetére

    Nem, és nem, és nem. Kérdezz meg bárkit, aki egy kicsit is otthon van AI/ML területen. Nincs paraméter, egyedül konkrét képekhez hasonló képeket tud megjelölni. Tehát az lehet, hogy nem csak CSAM képeket keresnek, mert erre az Apple szaván kívül semmi biztosíték sincs. De akkor is csak adott képeket tudnak keresni, nem tudják azt megcsinálni ezzel, hogy ismerjen fel általánosságban pl. marihuána ültetvényekről készített képeket. Össze kell gyűjteni az összes létező marihuánás képet, és akkor azokat, de csak konkrétan azokat, megtalálja bárki telefonján.
    De amíg a pedókat az definiálja, hogy CSAM képeket gyűjtenek, amiket be lehet azonosítani, addig, ha te elnyomó kormány lennél, és ellenzékieket akarnál levadászni, akkor milyen képeket tudnál összegyűjteni, hogy aztán megkeressék, hogy kinek a telefonján van meg, mert az illető a képből következően ellenzéki kell hogy legyen? Az ellenzékiség, a marihuána termesztés nem a képek gyűjtögetéséről szól, ellentétben a pedofíliával, ezért nem igazán lehet képekkel megtalálni ezeket a csoportokat, szerintem ezért sem kell annyira aggódni a képek bővítése miatt.

  • Ksix

    tag

    válasz nuke7 #46 üzenetére

    De attól a felhasználó oldalán mi lenne jobb, mi lenne a különbség?! Semmi. Ugyanez az NeuralHash ott is kereshetne a kormány által kényszerített, nem csak CSAM képeket, ha hibásan nézne valakit pedónak, pont ugyanolyan kellemetlen lenne stb. Ami viszont rosszabb lenne, fogalmad se lehetne, hogy mi történik. Ami a telefonon történik azt vissza lehet fejteni, meg lehet figyelni, bele lehet hallgatózni a hálózati forgalomba stb., ez mind elveszne azzal. Most is, ha nem a telefonon/számítógépen van a NeutralHash model, amit ki lehet másolni, meg lehet nézni, lehet vele kísérletezni, hanem a felhőben, akkor sosem lehetett volna leellenőrizni, hogy mit is csinál pontosan. És lehet, hogy sosem lesz titkosított iCloud, de így legalább a lehetőség adott. Szerintem, ha már kell ilyen ellenőrzés, akkor jobb megoldás a telefonon csinálni, mint a felhőben.

Új hozzászólás Aktív témák