Kampf gegen Kinderpornografie

Offener Brief an Apple: Stoppt den Foto-Scan, lasst keine Hintertür zu!

Sicherheitsexperten und Datenschützer kritisieren Apples angekündigte Maßnahme zur Bekämpfung der Verbreitung von Bildern, die den sexuellen Missbrauch von Kindern darstellen. Jetzt gibt es einen offenen Brief mit der Aufforderung an Apple, die KI noch zu stoppen.

Von   Uhr

Apple hat sich mit der Ankündigung des sogenannten CSAM-Scans zur Erkennung von Bildern mit sogenannten Child Sexual Abuse Material (kurz CSAM) keinen Gefallen getan (wir berichteten). Schon allein der Umstand, dass es keine große Ankündigung im Rahmen einer Keynote wurde, lässt viele Apple-Nutzer und Experten aufhorchen. Apple hat in den Augen vieler Nutzer und Experten das Vertrauen verspielt. Dabei hatte der Konzern vor gar nicht langer Zeit mit dem Slogan geworben „What Happens on your iPhone, stays on your iPhone“.

Doch wie soll es nun weitergehen?

Wenn Apple sich einen Zutritt zu den privaten Nutzerdaten verschafft, um per KI nach Kinderpornografie zu suchen, können das auch Dritte. Experten befürchten, dass Apple mit der Initiative nun eine Hintertür für Geheimdienste, Strafverfolgung und auch für Kriminelle aufstößt, die den Zugriff auf private Daten für ganz andere Zwecke missbrauchen könnten.

Daher ist die Forderung gegen Apple laut geworden, den CSAM-Scan noch zu stoppen. Es gibt nun einen offenen Brief an Apple, der die Bedenken genau nennt und Apple aufruft, den invasiven Eingriff zu unterlassen (via AppleInsider).

Wer möchte, kann diesen offenen Brief auf appleprivacyletter.com selbst unterzeichnen:

Ein offener Brief gegen Apples in die Privatsphäre eingreifende Technologie zum Scannen von Inhalten. Sicherheits- und Datenschutzexperten, Kryptographen, Forscher, Professoren, Rechtsexperten und Apple-Konsumenten kritisieren Apples geplanten Schritt, die Privatsphäre der Nutzer und die End-to-End-Verschlüsselung zu untergraben.

Am 5. August 2021 kündigte Apple Inc. neue technologische Maßnahmen an, die unter dem Namen "Erweiterter Schutz für Kinder" für praktisch alle Geräte gelten sollen. Auch wenn die Ausbeutung von Kindern ein ernstes Problem ist und die Bemühungen, es zu bekämpfen, zweifellos gut gemeint sind, führt der Vorschlag von Apple eine Hintertür ein, die den grundlegenden Schutz der Privatsphäre für alle Nutzer von Apple-Produkten zu untergraben droht.

Die von Apple vorgeschlagene Technologie funktioniert durch die kontinuierliche Überwachung von Fotos, die auf dem iPhone, iPad oder Mac des Nutzers gespeichert oder freigegeben werden. Ein System erkennt, wenn eine bestimmte Anzahl anstößiger Fotos im iCloud-Speicher entdeckt wird und alarmiert die Behörden. Ein anderes System benachrichtigt die Eltern eines Kindes, wenn über iMessage Fotos gesendet oder empfangen werden, die nach Ansicht eines maschinellen Lernalgorithmus Nacktheit enthalten.

Da beide Überprüfungen auf dem Gerät des Nutzers durchgeführt werden, haben sie das Potenzial, jede Ende-zu-Ende-Verschlüsselung zu umgehen, die ansonsten die Privatsphäre des Nutzers schützen würde.

Anzeige

Unmittelbar nach der Ankündigung von Apple schlugen Experten auf der ganzen Welt Alarm darüber, wie die von Apple vorgeschlagenen Maßnahmen jedes iPhone in ein Gerät verwandeln könnten, das kontinuierlich alle Fotos und Nachrichten, die es durchläuft, scannt, um etwaige anstößige Inhalte an die Strafverfolgungsbehörden zu melden und so einen Präzedenzfall zu schaffen, bei dem unsere persönlichen Geräte zu einem radikalen neuen Werkzeug für eine invasive Überwachung werden, ohne dass es eine Kontrolle gibt, die einen möglichen Missbrauch und eine unangemessene Ausweitung des Umfangs der Überwachung verhindert.

Wir, die Unterzeichnenden, fordern, dass:

  • Der Einsatz der von Apple Inc. vorgeschlagenen Technologie zur Überwachung von Inhalten sofort gestoppt wird.
  • Apple Inc. eine Erklärung herausgibt, in der sie ihr Engagement für eine Ende-zu-Ende-Verschlüsselung und den Schutz der Privatsphäre der Nutzer bekräftigen.
Anzeige

Diskutiere mit!

Hier kannst du den Artikel " Offener Brief an Apple: Stoppt den Foto-Scan, lasst keine Hintertür zu!" kommentieren. Melde dich einfach mit deinem maclife.de-Account an oder fülle die unten stehenden Felder aus.

Schwieriges Thema. Wahrscheinlich kommen alle Menschen, die sich dagegen aussprechen auch schon in eine Datei. Herzlichen Glühstrumpf.

NORDKOREA LÄSST GRÜSSEN !!

Schockieren was für ein Gegenwind hier entsteht.
Bitte Apple, zieht das durch!
Für sowas kann es keine Gegenargumente geben!!!

Auf die künftigen Verkaufszahlen von Apple-Geräten bin ich gespannt! Den welcher Vollpfosten kauft sich schon iPhones und Mac's mit eingebauter Überwachungssoftware zum teuren Preis :)

Wenn man überall die Fehlleistungen der AI sieht ist der Einsatz durchaus sehr fraglich. Vor allem was noch alles gepetzt werden soll in Zukunft.
1984 Grüsse

Es ist doch mega-lustig. Facebook, Google, Installiert und Co scannen schon lange. Die Liste kann jeder einsehen, wenn man die Cookie-Listen sich anschaut.

Außerdem werden in FOTOS die Fotos schon lange gescannt. An welchem Ort warst Du denn? Klick. Ach da ist das Foto gemacht worden.

Nun kommt also der Abgleich mit einer Hash-Liste von bekannten K-Porno-Fotos dazu. Und wenn mehrere gefunden werden klopft man bei den Behörden an. Ist das moralisch verwerflich? Sicher nicht. Wird Apple jemals diese (jetzt schon einsetzbare Technologie) missbrauchen? Sicherlich nicht. Es gibt genügend Beweise, dass das in der Vergangenheit nicht stattfand.

Durchsuchung ohne Anlass? Darf das sein? Öffentliche Kameras gibt es auch. Du wirst gefilmt, z.B. im Supermarkt oder am Flughafen. Unsere Personalausweiskarten bekommst Du nur, wenn Du Deine Fingerabdrücke lieferst. Anlass oder nicht.

Und dann gibt es noch unterschiedliche Gesetze in den Ländern. Deshalb findet das Vergleichen von Datei-Code-Schnipsel (denn nur das wird gemacht) bei den Fotos in Apple-Geräten auch zunächst nur in den USA statt. Hier muss ja auch jeder bei Einreise seine Fingerabdrücke abgeben. Ohne Anlass!

Also ich finde die Aufgeregtheit ziemlich an den Haaren gezogen. Analogien gibt es schon sehr lange. Und wenn es der Strafverfolgung dient (bei diesem schrecklich antihumanistischen Verbrechen) dann kann ich nur user_6... zustimmen. ist immer das selbe: Wird Technik genutzt oder missbraucht? Hier wird sie genutzt. Also was soll die Aufregung?

Ein hätte, könnte etc. - also ein Missbrauch - steckt in vielen Erfindungen und Technologien. Und manche werden genutzt - unter dem Deckmantel der "Freiheit", "Menschenrechte" oder was auch immer. An Nagasaki wurde heute gerade erinnert.

installiert = Insta

W e r A p p l e k a u f t i s t s e l b e r s c h u l d ! !

Es ist so schwer, solche verklemmten Mitmenschen ausfindig zu machen. Da kommt die Aktion von Apple zu Recht.
Andererseits, Datenschutz hat schon dazu geführt, dass Menschen sterben mussten. Was ist da schlimmer? Wer nichts zu befürchten hat, hat nichts gegen so ein Programm.

Wenn dies das Leid von Kindern, Baybies mindert, verhindert gibt es dann wirklich Agumente dagegen?

Wenn dies das Leid von Kindern, Baybies mindert, verhindert gibt es dann wirklich Agumente dagegen?

Noch dazu gibt es bei Apples Verfahren weder Foto-Scans noch Hintertüren. Das müsst eigentlich auch Frau Dressler wissen. Aber nach dem Inhalt ihres Artikel zu urteilen, hat sie genauso wenig Ahnung vom Thema, wie die Schreiber dieses offenen Briefes.

TOTALÜBERWACHUNG! POSTEINGANG KONNTO KAMAERA CHATVERLAUF! DIE DATEN WERDEN AM ENDE NOCH AN DER BÖRSE VERSCHERBELT UND DER KONZERN NOCH REICHER?? NE APPLE DAS WAR ES! BEHALTE DEINE ÜBERTEUERTE SPIONAGE HARDWARE.

Alles im M1 Chip inkludiert???

Du hast Dir doch noch nie ein Apple-Gerät leisten können. Schreib doch lieber bei Telegram. Da gibt es Gleichgesinnte…

Ich wähle immer meine Mutti, bin 100% angepasst und auf Linie, daher darf mich jeder gerne überwachen. Ich denke schon lange nicht mehr selber. Überwachung unter Freunden ist voll ok.

bitte apple soll das dursiehen bei kinderborno darf es kein dazenschutz geben

uwe stanger

Die Kommentare für diesen Artikel sind geschlossen.