schenklklopfer, German
@schenklklopfer@chaos.social avatar

An alle, die es bisher noch nicht verstanden haben: Nutzt !

geht jetzt tatsächlich so weit einfach jede aufgerufene URL (ja URL, nicht nur die Domain) direkt nach Hause zu schicken um sie dort zu "überprüfen".

Klar, kann man ausschalten, aber wer macht das schon?

-> deinstallieren und etwas ohne verwenden!

Bild aus der aktuellen c't 8/2024

grillchen,
@grillchen@brotka.st avatar

@schenklklopfer was bringt es das zu hashen? und sind die stolz auf SSL?

schenklklopfer,
@schenklklopfer@chaos.social avatar
grillchen,
@grillchen@brotka.st avatar

@schenklklopfer ah ok das ergibt sinn, fehlt leider wirklich im CT artikel...

StephanWindmueller,

@grillchen @schenklklopfer Google selbst erläutert den Algorithmus eigentlich sehr ausführlich:

https://developers.google.com/safe-browsing/reference#the-real-time-url-check-procedure

gunstick,
@gunstick@mastodon.opencloud.lu avatar

@grillchen @schenklklopfer der Sinn vom hash ist dass Google die URL nicht kennen braucht. Google braucht nut die bösen URLs kennen. Davon hat Google hashes.
Kommt eine unbekannte URL dann passt der hash nicht.
Da der hash für Facebook immer gleich ist, kann Google rausfinden Wieviel Browser auf Facebook unterwegs sind.

grillchen,
@grillchen@brotka.st avatar

@gunstick @schenklklopfer nah siehe die anderen antworten dann wird ein schuh draus. der artikel hat das unvollständig/falsch dargestellt

schenklklopfer,
@schenklklopfer@chaos.social avatar

@grillchen @gunstick ja, leider.

kaffeeringe,
@kaffeeringe@social.tchncs.de avatar
promasu,

@schenklklopfer Ja aber die URLs werden in gehashter Form übertragen. Das ist privat und sicher 1111!!elf

StephanWindmueller,

@promasu @schenklklopfer Es wird nur der erste Teil des Hashes übertragen. Der Abgleich gegen den vollständigen Hash erfolgt lokal.

https://developers.google.com/safe-browsing/reference#the-real-time-url-check-procedure

Warum genau ist das ein Problem aus Sicht der Privatsphäre?

jomo,
@jomo@mstdn.io avatar

@StephanWindmueller @promasu @schenklklopfer es wird ja nicht nur ein gekürzter Hash verwendet, sondern eine ganze Reihe an Patterns generiert – bis zu 30 Stück für eine URL. Die gekürzten Hashes davon werden alle gemeinsam an den Server geschickt. Da dürfte es nur noch wenige Kollisionen geben und die Liste an Hashes kann dann vermutlich recht eindeutig einer URL zugeordnet werden, wenn die bei Google bekannt ist. Durch das Tracking dürften die meisten URLs bekannt sein.

StephanWindmueller,

@jomo @promasu @schenklklopfer Oh, guter Punkt. Das könnte man vermutlich erschweren, indem man zusätzliche Random-Hash-Prefixes mitschickt, aber das müsste Chrome dann ja auch machen.

jomo,
@jomo@mstdn.io avatar

@StephanWindmueller @promasu @schenklklopfer das wäre ein guter Ansatz. Man könnte die Hashes außerdem sortiert schicken, davon sehe ich in der Beschreibung nichts.

  • All
  • Subscribed
  • Moderated
  • Favorites
  • firefox
  • Durango
  • magazineikmin
  • mdbf
  • thenastyranch
  • khanakhh
  • rosin
  • Youngstown
  • ethstaker
  • slotface
  • modclub
  • kavyap
  • DreamBathrooms
  • everett
  • ngwrru68w68
  • JUstTest
  • InstantRegret
  • tacticalgear
  • GTA5RPClips
  • cubers
  • normalnudes
  • osvaldo12
  • tester
  • anitta
  • cisconetworking
  • megavids
  • Leos
  • provamag3
  • lostlight
  • All magazines