Új hozzászólás Aktív témák
-
félisten
A fő gond nem az, hogy mit, mennyit és milyen szigorral keresnek -- ezek gyakorlatilag részletkérdések ahhoz képest, hogy egyáltalán hogyan ellenőrizhetik a tulajdonomat képező eszköz tartalmát.
Én speciel nem tartozom a vérmesebb adatvédők közé (bár a munkám miatt ismernem kell ezt a területet), és a ma divatos szintnél nagyobb toleranciát tanúsítok a hatósági hozzáférések irányában, de azt elfogadhatatlannak tartom, hogy az elméletben kizárólag engem illető adatokhoz egy szabályozott és garanciákkal ellátott jogi eljáráson kívül bárkinek hozzáférése legyen -- különösen egy adatokra éhes magáncégnek.
Ha pedofil tartalmat tudnak keresni, akkor a sima és a házi pornót is, akár csak a templomi felvételeket, a politikai tartalmakat és az orvosi anyagaimat. Ezek alapvető elvi kérdések, és nem a részleteiknél, hanem az alapvető kereteiknél kell kezdeni a vizsgálódást.
Ja, és még valami, bár ez már nem közvetlenül az adatokhoz kapcsolódik: több esetben is volt szerencsém (hálistennek nem a saját bőrömön) megtapasztalni, hogy milyen az, amikor valakit pedofil tartalmakért vesznek elő. Ezekben az esetekben végül tisztázódott, hogy a meggyanúsított személyeknek bizonyíthatóan semmi kapcsolatuk nem volt kiskorúakkal kapcsolatos intim tartalmakhoz, de eddig sok (szintén tiszta) ember nagyon személyes adatainak a megismerésén keresztül vitt az út. Ezeknek az embereknek a legintimebb, addig megfelelően bizalmasan kezelt képeiben, videófelvételeiben, szöveges anyagaiban vállig turkált egy csomó illetéktelen. A pedofil tartalmak kiszűrése nyilván brutálisan komoly prioritás kell, hogy élvezzen -- csakhogy ennek az arányait nagyon könnyű elszabni, és ha már egy Apple jellegű cég is jogosultságokat kaphat, ott szerintem megjósolható a sok ártatlan meghurcolásával járó túlkapások sorozata.
MaCS
[ Szerkesztve ]
Fán nem lehet motorozni, motoron viszont lehet fázni!
-
KISDUCK
addikt
Szép és jó dolog a pedofília ellen harcolni, de gondolom akkor ezeket a felhőben tárolt adatokat "robot" fogja átnézni. Mi van ha ahogy a Macs_70 írta valaki a saját intim dolgait tárolja ott és tegyük fel bejelez a rendszer és egy munkatárs nézi meg más személyes dolgait és vigyük tovább a dolgot, mi van ha a munkatárs letölti és megosztja más személyes tartalmát? Akkor mosakodhat majd az apple rendesen...
Nem rég volt egy hasonló eset amikor az illető beadta a telefonját szervízbe és a kolléga a telefonon tárolt intim anyagokat közszemlére tette. [forrás]
Nincs apple eszközöm, nem tudom hogy működik ott a felhő, de nem lepődnék meg ha ennek hatására más felhő szolgáltatást keresnének azok akik használják. Persze tudom most ez elég szélsőséges példa volt, de sajnos benne van a pakliban hogy olyan fog szenvedni miatta akinek nem kéne. -
Ksix
tag
„egyáltalán hogyan ellenőrizhetik a tulajdonomat képező eszköz tartalmát”
Úgy, hogy aktívan a hozzájárulásodat adod, amikor igénybe veszed az opcionális iCloud szolgáltatáson belül a szintén opcionális iCloud Fotók szolgáltatást. Része lesz a felhasználási feltételeknek, amit el kell fogadnod, majd még külön be is kell kapcsolnod, hogy igen, te szeretnéd hogy feltöltse az eszköz a képeidet a felhőbe, ahol az Apple és a hatóságok törvényben meghatározott módon amúgy is hozzáférnek, az összeshez, nem csak a pedofilnak jelöltekhez.„kizárólag engem illető adatokhoz egy szabályozott és garanciákkal ellátott jogi eljáráson kívül bárkinek hozzáférése legyen -- különösen egy adatokra éhes magáncégnek”
Ha el is tekintünk az előzőtől, akkor is, az eszközön történő ellenőrzés pont arról szól, hogy a magáncégnek ne legyen hozzáférése. Nem a magáncég kapja meg a képeket, és ellenőriz, hanem az oprendszer. Ha én feltelepítem a Windowst egy számítógépre, az nyilván hozzáfér a gépen tárolt összes adathoz, de ez még egyáltalán nem jeleni azt, hogy a Microsoft is hozzáférne azokhoz. Vagy, az Android is hozzáfér a telefonon készített összes képhez, hiszen vissza tudom nézni azokat a telefonon, akkor ezzel egyben az adatokra éhes Google-nek is hozzáférése lenne az összes képhez?!„Ha pedofil tartalmat tudnak keresni, akkor a sima és a házi pornót is, akár csak a templomi felvételeket, a politikai tartalmakat és az orvosi anyagaimat”
Nem, mert a keresés nem a látható tartalom elemzésével dolgozik, nem képfelismerő algoritmus. Csak generál egy azonosítót a képekről, amit összevet a már ismert pedofil képek adatbázisában tárolt képekről ugyanígy generált azonosítókkal. Amíg a házi pornó, templomi, politikai és orvosi anyagok nem kerülnek be a pedofil adatbázisba, addig nem tud keresni azokra.„és ha már egy Apple jellegű cég is jogosultságokat kaphat, ott szerintem megjósolható a sok ártatlan meghurcolásával járó túlkapások sorozata.”
A Google/Facebook/Microsoft/stb. több mint 10 éve használja ezeket a jogosultságokat, és keresi a pedofil tartalmakat, ennyi idő alatt hány ártatlant hurcoltak meg miattuk, és milyen túlkapások voltak eddig? Másrészt, ha a telefon beazonosít 30 db olyan képet, amik már léteznek és szerepelnek a pedofil képek adatbázisában, és amiket csak ekkor, megnéz egy Apple alkalmazott is, és ő is azt látja, hogy valóban azokról a pedofil képekről van szó, és csak ezután kerül elő a hatóság, hogyan fordulhatna elő ilyen esetben „ártatlan meghurcolása”? És, ha mégis előfordul, a hatóságokon kívül ki tudná ezt megállapítani? Döntse el az Apple/Google/Facebook/Microsoft/stb., hogy áh, ez biztos csak egy ártatlan illető? -
Cathfaern
nagyúr
"Mi van ha ahogy a Macs_70 írta valaki a saját intim dolgait tárolja ott"
Nyilván lesz egy szerződés módosítás amit el kell fogadnod. Szóval akkor vagy nem fogadod el, és nem használhatod az iCloud-ot, vagy elfogadod és a) nem töltesz fel ilyen képet, b) elfogadod hogy lehet azt valaki átnézi.
Ez amúgy a legtöbb kép/videófeltöltőre igaz, hogy bármikor lehet hogy ellenőrzés céljából ember át fogja nézni amit feltöltesz oda (igen, mindegyiknél elfogadod ezt). -
ddekany
veterán
Miért vezette ezt be az Apple? Mármint ez miért jó nekik?
-
Ksix
tag
1. Mert amíg 2019-2020-ban a Facebook 36 191 727, a Google 995 987, addig az Apple csak 470 bejelentést tudott tenni az esetleges pedofíliával kapcsolatban, nagyon ideje volt kitalálniuk erre valamit.
2. Az Apple nem a felhasználói adatainak az eladásából él, mint a Google/Facebook, így nincs jelenleg infrastruktúrája az iCloud tartalom szkennelésére. (Ebből is adódnak a fenti számok, a többiek nyilván amúgy is folyamatosan elemzik a profilozáshoz az összes feltöltött adatot, nulla erőforrás igénye van, hogy eközben még pedofil képeket is keressenek.) Ha már csinálnak erre valamit, miért ne a telefonra készüljön? A macskás képek felismerését sem a felhőben oldották meg, mint mások, hanem a telefonon.
3. Ha a telefonon történő ellenőrzéssel még a feltöltés előtt ki tudják szűrni a pedofil képeket, akkor a későbbiekben sem lesz szükségük arra, hogy hozzáférjenek a felhőben tárolt tartalomhoz. Így majd úgy tudják bevezetni az Apple által sem elérhető, titkosított iCloud szolgáltatást, hogy nem lehet majd arra felhozni azt az érvet, hogy de hát a titkosítás miatt majd odamegy az összes pedofil, és igazából őket védi az Apple, amikor nem hajlandó feltörni/kiskaput építeni a szolgáltatásba. Persze ez a legutolsó csak egy elmélet, de nem lenne meglepő, ha jövőre bejelentenének egy ilyen szolgáltatást. -
craftsman01
senior tag
Soha nem töltenék fel felhőbe semmit,se kép se dokumentum,még saját gépen sem biztonságos tárolni.Ezért képeket és dokukat is külső vinyón tárolok,ha kell valami rádugom gépre mejd egyből kihúzom.De ez én vagyok.
Csak óvatosan legyél kemény ,mert mindig van tőled keményebb.
-
arnyekxxx
veterán
válasz craftsman01 #12 üzenetére
Gondolom párhuzamosan legalább 2 külső vinyón hiszen fontos dolgok
-
strogov
senior tag
"a saját intim dolgait tárolja ott és tegyük fel bejelez a rendszer és egy munkatárs nézi meg más személyes dolgait és vigyük tovább a dolgot, mi van ha a munkatárs letölti és megosztja más személyes tartalmát?"
Itt nem arról van szó, hogy betanított gépi látás algoritmus keres valamit. Ebben a mostani esetben a risztás konkrét képekre vonatkozik nem elvont tartalomra. Az apple olyan képek hash-ét futtatja végig a rendszeren amiket pedofil tartalomként hatóságilag megjelöltek már. Mint a cikk írja több országban. Ha egyezés van akkor jön egy manuális ellenőrzés.
-
ddekany
veterán
-
félisten
Ha viszont HASH-értéket hasonlít össze, akkor nagy jövőt jósolok a képekben egy bitet módosító megoldásoknak... Szomorú, de a pedofiltéma gyakorlatilag iparággá nőtte ki magát, elképesztően magas műszaki színvonalon.
MaCS
Fán nem lehet motorozni, motoron viszont lehet fázni!
-
Ksix
tag
Ez nem olyan hash, mint ami a fájlok vagy jelszavak ellenőrzésére szolgál (MD5, SHA1, BCrypt stb.), amiknél már egyetlen bit változásának hatására új hash érték keletkezik. Pont ellenkezőleg, jól tűri az egyszerűbb képszerkesztéseket is, és azok után is ugyanazt a hash-t eredményezi, mint amit az eredeti kép.
-
Ksix
tag
Pl. az Apple oldalán is ott vannak az infók, ők NeuralHash márkanéven futtatják a saját hash algoritmusukat, úgy szerepel ezekben a doksikban:
https://www.apple.com/child-safety/
Általánosságban pedig perceptual hashing, vagy perceptual image hashing néven futnak ezek a módszerek, arra érdemes rákeresni (én olvasni jobban szeretek, de a YouTube-on is vannak videók a témában), két random rövid oldal:
http://www.bertolami.com/index.php?engine=blog&content=posts&detail=perceptual-hashing
https://jenssegers.com/perceptual-image-hashes
A elsőn jók a mintaképek, hogy milyen torzítások után minősül még hasonlónak 2 kép, a másodikon meg jól látszanak egy lehetséges hash számolás lépései.
De már az Apple által jelenleg használt konkrét módszert is visszafejtették:
https://github.com/AsuharietYgvar/AppleNeuralHash2ONNX
Azt mondja az Apple, hogy ez még nem a végleges, de majd ha készen lesz, azt is nyilvánosságra hozzák.[ Szerkesztve ]
-
-
-
félisten
Köszönöm, nagyon jó előadás!
Nagyjából ettől tartottam eredetileg is.
Tehát az azonosítás magán a telefonon történik, és a HASH nem a képek tartalmával kapcsolatban kerül elő, hanem a keresési szabályok elrejtésében -- és ezek a szabályok, tehát az, hogy éppen milyen tartalmat keres a rendszer a fájljaimban vagy a kamera élőképén, baromi könnyen és diszkréten módosíthatók, finomíthatók.
MaCS
[ Szerkesztve ]
Fán nem lehet motorozni, motoron viszont lehet fázni!
-
Ksix
tag
Ez valami rossz vicc?! Egy digitális laposföld hívő?! Ordas nagy tárgyi tévedések, szakmai ismeretek teljes hiánya (hash = kriptográfiai hash), nem értem hogy működik, nem nézem meg hogy működik, de én olvasok a sorok között, ezért tudom, hogy így működik, teljesen biztosan ezt és ezt csinálja, 0 szakamai érv, bármilyen minimális ténnyel való alátámasztás nélkül?! Azt a rohadt életbe, ennyi demagóg bullshit egy kupacban, nem semmi!
Könyörgöm, szakemberek videóít nézzük, ha valaminek a működésére vagyunk kíváncsiak, ne kuruzslókét. Ugyan ebben is vannak apró tárgyi tévedések, de legalább szakmailag alapos:
How Apple scans your phone (and how to evade it) - NeuralHash CSAM Detection Algorithm Explained
Mert már annyira pontosan lehet tudni, hogy hogyan működik, hogy reprodukálták is, ahogy azt már pár hozzászólással előbb linkeltem is, és aki ért hozzá, az demózni is tudja:
NeuralHash is BROKEN - How to evade Apple's detection and forge hash collisions (w/ Code)
Így néznek ki a megalapozott, szakmai videók, ellentétben azzal, amikor valaki fog egy mikrofont, és folyamatosan ismételgeti, hogy a föld az lapos, mert a föld az lapos, érted, lapos. -
nuke7
veterán
How Apple scans your phone (and how to evade it) - itt már a 6. percben tetten érhető egy hazugság..
ennél a résznél, ahol a neural hash jön, ott van a lényeg. A neural hash-nek értelmeznie kell a képet - tehát meg kell vizsgálnia a képeidet, különben nem tudja értelmezni. Tehát át kell néznie azokat a képeidet is, amik nincsenek benne a CSAM adatbázisban.[ Szerkesztve ]
https://youtube.com/user/nuke7
-
nuke7
veterán
ott az ellentmondás, hogy nem tudod - mivel nem nyilvános - hogy mire jelez be.
azt az apple dönti el - ott is gondolom viszonylag magasan - hogy mit flageljen pozitív találatnak.
Ez a probléma, hogy megnézi az összes fotód és nem tudod hogy mi alapján flaggeli, csak elhiszed, hogy csak a CSAM adatbázison edzett neural network értelmezésében létrehozott dolgokat csekkolja. De miután ez működik, ki mondja meg, hogy csekkolja-e más adatbázishoz képest is a képeidet vagy nem..?
Az ezek mellett már totál részletkérdés, hogy akik nézik / felügyelik a rendszert, azok látják-e konkrétan vagy tudják-e rekonstruálni a képet vagy nem. (nyilván benne van a videóban, hogy a sima neural hash-ből rekonstruálható a kép...)https://youtube.com/user/nuke7
-
ddekany
veterán
Nyilván nem tarthatod te kézben, hogy mit feketelistáznak. Úgy nem lenne értelme. Sőt, azt se tudhatod, hogy valami bejelzett-e vagy sem (különben könnyebben megtanulhatnád kijátszani). Viszont csak azokat a képeidet tudják megnézni matematikai okból, amivel megegyező hash-űt már korábban feketelistáztak.
-
"Viszont csak azokat a képeidet tudják megnézni matematikai okból, amivel megegyező hash-űt már korábban feketelistáztak.": ami a korábban linkelt poszt szerint törvénysértő. az apple legálisan nem feketelistázhat csam képeket.
Egy átlagos héten négy hétfő és egy péntek van (C) Diabolis
-
Ksix
tag
Akkor miért nem arról beszél? Miért a kriptográfiai hash-ról beszél, amikor ahhoz ennek semmi köze, miért arról beszél, hogy mit csinál a Facebook, Google, Tesla? Mi köze van ezeknek a cégeknek az Apple CSAM megoldásához? Tipikus politikusi érveléstechnika, soroljunk fel egy csomó, a tárgyhoz hasonló, de valójában semmilyen formában nem kapcsolódó, ellenőrizhetően igaz állítást, azzal majd a mi teljesen alaptalan állításunk is alátámasztottnak tűnik. Szerinte a telefon kamerája valós időben felismer dolgokat, és azonnal jelenti az Apple felé, ezt ő honnan tudja, megtalálta a kódot a telefonon, megfigyelte a hálózati forgalmat? Nem hinném, mert láthatóan IT alapokkal sincsen tisztában, összekever két teljesen különböző technológiát (BLE, UWB), olyan dolgokról hazudik, amit otthon minimális IT tudással bárki le tud ellenőrizni, hogy nem is úgy van stb. Miért nincsen semmi indoklás, magyarázat a kijelentéseire? Így van, csak azért, mert én ezt mondom, demagógia csúcsra járatva.
Egyébként az iPhone-okon, Apple által is bejelentve, az iOS 10 óta vannak képfelismerő algoritmusok, amik megmondják, hogy ez egy cica, az egy melltartó, az meg ott a Kovács Pista, tehát már ~5 éve folytathatnák ezt a világkémkedést, ha az lenne a cél, ezeket már nem kell belerakni. De a fickó szerint nem ezeket az évek óta meglévő dolgokat használják csendben és titokban, hanem most, nagy felhajtással bejelentenek egy új módszert, amit jelenleg is bárki letölthet és ellenőrizhet, hogy mit csinál, és azzal akarnak kémkedni. Aha, ez így tök logikus, értem, biztos így is van, hiszen ő azt mondja! -
Ksix
tag
Mit értesz azon, hogy értelmezni?! A NeuralHash model nem értelmez, megnézi a képet, és generál hozzá egy hash értéket. Mint ahogy az md5sum program sem értelmezi a fájlt, csak megnézi a benne lévő bájtokat és azok alapján kiszámolja az md5 értéket. És nyilván az összes (iCloudba feltöltendő) képet átnézi, ez a módszer lényege, mindegyiket megnézi, mindegyikhez generál egy hash értéket, amit aztán majd össze lehet hasonlítani a pedofil képek hash értékeivel. Hol van itt a hazugság?!
-
Ksix
tag
Igen, innen indultunk, hogy nem kriptográfiai hash-ról („sima” hash) van szó, hanem perceptual hash-ról:
Perceptual Hashing
Perceptual Hashing
Perceptual image hashes
Erre van többféle módszer, egyik sem „értelmezi” a képet, csak kiszámolnak rá egy olyan hash-t, ami hasonló képek esetén hasonló lesz.
Hogy az Apple módszere mit csinál, azt itt lehet megnézni:
https://github.com/AsuharietYgvar/AppleNeuralHash2ONNX
Letöltöd, adsz neki egy képet, és kiköpi a NeuralHash értéket. Raksz a képre vízjelet/átméretezed/újratömöríted, és megnézheted, hogy mennyire változik. Semennyire. -
Ksix
tag
Továbbra se értem, hogy mi a hazugság, hol az ellentmondás a videóban? Az első pillanattól kezdve azt mondta az Apple, hogy a pedo képek hash értékeit csak ő kezeli, és nyilván csak ő juttathatja el a telefonokra az összehasonlításhoz. Mit köze van ehhez a NeuralHash-nak, és mit hazudnak erről a 6. percnél?
Nem jól érted a rendszer működését. Az AI modellnek semmi köze a CSAM képekhez, az csak arra lett betanítva, hogy perceptual hash-t generáljon a képből, hogy össze lehessen hasonlítani egy másik kép perceptual hash-ével. Ami egyezni fog, ha eléggé hasonló a két kép. Az AI nem csinál semmilyen összehasonlítást, csak kiköp egy számot. Töltsd le, próbáld ki!
Ez egy NeuralHash érték: a08c853d711ee3edb362f40b. Ha ebből vissza lehetne állítani az eredeti, néhány MB-os képet, akkor rögtön meg is lenne a világ leghatékonyabb tömörítési eljárása. -
Ksix
tag
Miért lenne törvénysértő, hol van ez a linkelt poszt? Microsoft már több mint 10 éve feketelistázza a CSAM képeket, és nincs olyan nagy internetes közösségi, tartalom, vagy tárhely szolgáltató, aki ne csinálná ugyanezt. Embereket tartóztattak le ilyen bejelentések alapján, csak szólt volna már a rendőrség, hogy ne csinálják, mert törvénytelen.
-
a másik topicban linkelték.
azért törvénytelen, mert aki csam képet talál, az kizárólag az illetékes hatóságnak jelentheti és semmi mást nem tehet vele.az, hogy az ms, a google, a facebook meg a többi ostoba adathörcsög évek óta törvényt sért, nem menti az apple-t, csak annyit jelent, hogy szégyellhetjük magunkat, hogy még nem vágtuk pofán őket egy bazi nagy szeneslapáttal.
hagy válaszoljak a #27-re is: alapszabály, hogy aki indokolatlanul eltakarja a szemét, az hazudik. Tehát a hsz-ben másodiknak linkelt videó helyes nézési módszere a következő: elindítod, meglátod, hogy bazi nagy napszemüveg van a képén, bezárod a böngésző tabot.
Egy átlagos héten négy hétfő és egy péntek van (C) Diabolis
-
Ksix
tag
Oké, sejtem már, hol van a félreértés. A felsorolt cégek nem a konkrét CSAM képeket kezelik, az tényleg törványsértő lenne, hanem csak a képek hash értékeit, amiben viszont már nincsen semmi törvénytelen. A hash-t minden esetben a képeket törvény alapján kezelő NCMEC készíti el a cégeknek.
-
nuke7
veterán
nem nézted akkor végig a videót, vagy nem értetted - azt se amit írok akkor.
A sima hash - amit eddig is használtunk file integritás ellenőrzéséhez - nem működik a CSAM célra.
azért kell a neural hash-nek értelmeznie a képet - és ezért is reprodukálható a képe a neural hash alapján - mert a sima hash nem fog egyezni, ha bármit módosítasz a képen. Tehát nagyon könnyű lenne kijátszani.
Pont azt a techinkát használják, ami megmondja, hogy kutya, melltartó vagy Kovács Pisti van-e az adott képen, csak ezt kvázi titkosítják, ez a neural hash.#37 & #38: miért nem érted, hogy az apple rendszer most csak a CSAM adatbázis alapján keres. De nem fogod tudni, hogyha esetleg más adatbázis alapján is keresni fog, mert megtehetik, az ai megvan rá, és ez bassza nagyon sok embernek a csőrét (többek között) mert most azt mondják, hogy csak azokat a képeket nézik, amiket te feltöltenél icloud-ba.
De a körítés a linkelt videón, pont arról szól, hogy ezt egyáltalán nem tudod, hogy betartják-e.
Nem tudod, hogy csak CSAM adatbázissal hasonlítják-e össze a képeidet, és nem tudod, hogy csak azokat, amiket icloud-ba feltöltesz.
És igen, eddig is létezett már képfelismerő az apple-nél ami a telefonon futott, de eddig nem volt ellenőrzés, és ezek nem kerültek be (titkosítva se) egy adatbázisba. Erre épült most ki az infrastruktúra, nem a kép értelmezése a nagy wasistdas itt
és amúgy a te általad linkelt videóban hangzik el, hogy a perceptual hash-ből rekrálható a kép, ezért titoksítják tovább.#42 ddekany : hát igen, és van aki ezt elhiszi nekik, van aki nem...(hogy nem küldi el nekik)
disclaimer: én - habár foglalkozom fejlesztéssel - nem vagyok cryptographic szakértő, csak tolmácsolom neked a videót, és azt a perspektívát amit nem szeretnél valami miatt megérteni.
[ Szerkesztve ]
https://youtube.com/user/nuke7
-
ddekany
veterán
"Pont azt a techinkát használják, ami megmondja, hogy kutya, melltartó vagy Kovács Pisti van-e az adott képen, csak ezt kvázi titkosítják"
De nem. Sehol nem fér el egy telefonban egy akkora neurális háló, ami érdemi szemantikai leírást tud adni egy képről (sőt, elég korlátosan tudunk úgy általában ilyet csinálni... lásd pl. önvezető autók vergődését a látvány értelmezésében). Illetve mekkora az a hash, hogy ez szerinted beleférne? És ha így is benne lenne túl sok információ, nem küldi el a telefon a neural hash-t a szerverre. Csak azt tudja ellenőrizni a szerver oldal, hogy fekete listázva lett-e olyan neural hash, mint ami a te képedé, de ha erre az a válasz, hogy nem, akkor nem fogja tudni a képed hash-ét sem (mert, Private Set Intersection).
Mint mondtam, igen, nyilván nem tudhatod, hogy milyen képeket feketelistáztak, azaz nyilván nincs arra technikai/matematikai garancia, hogy csak a CSAM-al foglalkozó hivatalos szervektől kapottakat veszik fel. Vagy hogy holnap nem kopog az állam, hogy heló Tim, ezeket Bástya elvtársat gúnyoló képeket is vegyétek fel. De hát ezzel mégis mit lehetne kezdeni? Vagy nincs kép szűrés, vagy pedig van ez a feszkó, hogy na vajon holnap még mit akarnak detektálni.
Ha persze az a kérdés, hogy majd a disztropikus jövőben mi lesz... Tippre, nem fognak igyekezni még a látszatot sem fenntartani. Az arra feljogosított szervek megnézhetik mindenedet, kész. De itt még az Apple a jelek szerint épp küzd, gondolom hogy egy kis PR előnye legyen belőle. Persze eléggé fordítva sül el a dolog, mert a kriptorgárfia túl nagy brainfuck, és nem értik a felhasználók. De ismét, ha kell szűrni, akkor mit lehet még tenni?
[ Szerkesztve ]
-
"De hát ezzel mégis mit lehetne kezdeni? Vagy nincs kép szűrés, vagy pedig van ez a feszkó,"
eléggé egyértelmű.
a gond az, hogy ez egy technológia, ami valamire jó. letiltod vagy nem. de van mellette egy rakás másik technológia, aminek mindegyike jó egy valamire, vagy letiltod, vagy nem, de azt soha senki nem gondolta végig, hogy ezek *együtt* mire jók.
például ha ble-vel kommunikálhatnak a telefonok, akkor egy nagyobb tömegben elegendő egyetlen telefon, amelyiken nincs rendesen letiltva minden, máris kimehet az összes adat a teljes bandáról.vagyis ha tartani akarod a törvényeket, egyetlen megoldásod marad: kitiltani az összes apple telefont az országból. aki megvette, leadhatja a rendőrségen, a boltokba pedig nem szállítani többet, a határon pedig bezacskózni minden idelátogató külföldi telefonját.
Egy átlagos héten négy hétfő és egy péntek van (C) Diabolis
-
#79734528
törölt tag
a technológiát nem tudod megmondani, hogy az apple például mire fogja használni, azt a technológiát amire még törvény sincs.
a telefonod is egy technológia.
olyan technológia kellene mint a blokklánc amibe ilyen apple féle cégek nem igen tudnak beleszólniapple M1 processzor na abba a technológiába szóljál bele. (ugye azt is megveszed tiéd, de ki tudja mi van benne )
intel proci hátsó kapu pld.
vagy a facebook saját krypto, na abba szóljál bele, vagy államilag szabályozd le.
vagy a vakcina technológiába ami ugye nélkülözhetetlen.[ Szerkesztve ]
Új hozzászólás Aktív témák
- Megrendszabályozza a Pornhubot az EU
- Videó stream letöltése
- Telekom mobilszolgáltatások
- Samsung Galaxy S24 Ultra - ha működik, ne változtass!
- Napelem
- Aliexpress tapasztalatok
- Olyat tett a Netflix, amire senki sem számított
- Bemutatkozott az Astropulse: Reincarnation
- sziku69: Fűzzük össze a szavakat :)
- Futás, futópályák
- További aktív témák...
- Adobe Creative Cloud - 2024. 04. 05 - 2025. 04. 05-ig
- Eredeti Microsoft termékek - MEGA Akciók! Windows, Office Pro Plus, Project Pro, Visio Pro stb.
- Játékkulcsok olcsón: Steam, Uplay, GoG, Origin stb.
- Windows, Office licencek a legolcsóbban, egyenesen a Microsoft-tól - 2990 Ft-tól!
- Vírusirtó, Antivirus VPN kulcsok