Home » Apple » Apple scannt die iCloud automatisiert nach Kinderpornographie

Apple scannt die iCloud automatisiert nach Kinderpornographie

iCloud - Apple

Apple scannt Fotos in der iCloud der Nutzer auf Fälle von Kindesmissbrauch hin, das hat das Unternehmen nun bestätigt. Vergleichbare Techniken kommen bereits seit Jahren bei verschiedenen anderen Cloud-Anbietern zum Einsatz. Ob Apple neben der iCloud auch in iMessage entsprechende Suchvorgänge durchführt, ist nicht bekannt.

Apple hat automatisierte Maßnahmen in seinen Systemen implementiert, die auf Fotos nach Fällen von Kinderpornographie Ausschau halten, das hat nun Apples Chef-Datenschutzbeauftragte Jane Horvath im Rahmen einer Diskussionsrunde zum Thema bestätigt. Das Unternehmen nutzt dabei entsprechende digitale Signaturen, nach denen anhand einer zentralen Signaturdatenbank gesucht werden dürfte. Schlägt dieser Suchvorgang an, werden die Accounts, von denen die Fotos geteilt wurden, deaktiviert. Außerdem wird ein Fall von möglichem Kindesmissbrauch auch von Apple an die zuständigen Stellen gemeldet, jedoch wird jede Positiverkennung noch einmal einer abschließenden Überprüfung unterzogen. Naturgemäß führt Apple auch auf den entsprechenden Infoseiten nicht im Detail aus, wie die signaturbasierte Erkennung von Kinderpornographie genau funktioniert, entsprechende Techniken wurden aber nicht etwa bei Apple erstmals entwickelt und zum Einsatz gebracht.

Microsoft nutzt Kinderporno-Erkennung schon lange in OneDrive

Als Vorreiter in dem Bereich gilt Microsoft. Dort hat man bereits vor Jahren erste Versuche mit der Technik PhotoDNA unternommen, inzwischen kommt dieses Verfahren im Regelbetrieb auf OneDrive, dem Cloud-Angebot von Microsoft, im Einsatz. PhotoDNA setzt auf eine zentrale Signaturdatenbank, ähnlich wie ein Spam-Filter oder ein Antivirus-Programm. Natürlich müssen diese Signaturdatenbanken ebenso wie ihre Vorbilder aus der IT-Sicherheit mit entsprechenden Referenzen ausgestattet und ständig weiter gefüllt werden, obgleich hier auch mit MachineLearning-Verfahren gearbeitet wird.

Unklar ist, wie Apple in den Ende-zu-Ende-verschlüsselten Übertragungen von iMessage vorgeht. Theoretisch wäre es auch hier möglich, übertragene Medien mit Hilfe der eingesetzten Techniken zu prüfen, Apples AGB lassen ein solches Vorgehen auch zu.

-----
Willst du keine News mehr verpassen? Dann folge uns auf Twitter oder werde Fan auf Facebook. Du kannst natürlich in Ergänzung unsere iPhone und iPad-App mit Push-Benachrichtigungen hier kostenlos laden.

Gefällt Dir der Artikel?

 
 
Roman van Genabith
twitter Google app.net mail

12 Kommentare zu dem Artikel "Apple scannt die iCloud automatisiert nach Kinderpornographie"

  1. NBrock 9. Januar 2020 um 20:00 Uhr ·
    Super und dann Anzeige
    iLike 11
  2. Loftus Cheek 9. Januar 2020 um 20:15 Uhr ·
    Grundsätzlich super, die Frage ist nur was sie noch so scannen. Anscheinend ist Privatsphäre bei Apple doch nicht so gut. Wenn sie meine ganzen Bilder auch auf andere Gegebenheiten scannen, können Sie sehr viel über einen erfahren.
    iLike 21
    • gast22 9. Januar 2020 um 22:48 Uhr ·
      Warum machst Du Panik? 1. Es ist doch wohl moralisch, solchen Verbrechern auf die Spur zu kommen. 2. Es ist wohl auch eindeutig klar, dass das Geschäftsprinzip von Apple ist mit Services, Hardware und Software Geld zu verdienen. Warum sollten sie noch mit Daten handeln? Zumal wenn das rauskommen würde es die reinste Katastrophe für die Firma wäre. Sie sagen immer wieder, dass die Privatsphäre geachtet wird – und sie unternehmen ja auch viel, nicht nur auf die Cloud bezogen. Schau Dir die Maßnahmen in der Hardware an.jedenfalls das komplette Gegenteil von Google und Facebook inklusive WhatsApp und Instagram (die ja zu Facebook gehören). Diese Firmen haben als Geschäftsmodell fast ausschließlich Geld mit Daten zu verdienen. Nur ist es den Nutzern egal! Also, warum diese Zweifel?
      iLike 8
      • Steve 9. Januar 2020 um 23:16 Uhr ·
        Weil die Grundsatzfrage hier nicht ist, ob du oder irgendwer was zu verbergen haben, sondern ob es Privatsphäre und informationelle Selbstbestimmung gibt oder nicht. Schon der Begriff „Moral“ ist hier fehl am Platze, denn a) wer bestimmt was heute moralisch ist, was morgen moralisch ist, was es in USA ist, in China oder in Deutschland? Schon „Moral“ ist ein sich verändernder subjektiver Begriff, der über Regionen und Geschichte vollkommen diffus und wandelbar ist. Er eignet sich daher nicht als Maßstab für Kontrolle oder Rechtsstaatliche, geschweige denn privatrechtliche Eingriffe. Unter „moralischer“ Rechtfertigung sind in der Vergangenheit schon massivste und, aus wiederum heutiger Sichte gesehene, grausamste Verbrechen begangen worden. Das Problem, dass Apple zunehmend bekommt in den USA, ist aber, dass sie nicht 2 Herren gleichzeitig dienen können, und der Spagat früher oder später überreizt ist.
        iLike 22
      • Loftus Cheek 9. Januar 2020 um 23:34 Uhr ·
        Ich gebe dir auch hier grundsätzlich Recht. Um jedoch Ihre Service zu verbessern, eigenen sich diese Information bestimmt auch sehr gut. Aber was ist, wenn ich das nicht will?
        iLike 4
  3. Nicolas 9. Januar 2020 um 20:18 Uhr ·
    Die sollen lieber mal den speicherplan upgraden
    iLike 26
  4. Matthias 9. Januar 2020 um 21:27 Uhr ·
    Mal davon abgesehen, dass solchen Menschen der Sch… angeschnitten gehört finde ich es schon bedenklich, dass durch einen solchen scann alle User pauschal als „Verdächtigte“ abgestempelt werden. Das kann nicht der richtige Weg sein Straftaten aufzudecken. Was kommt dann als Nächstes ? Alle Babycams werden pauschal beobachtet und ausgewertet !? Das hat ja nichts mehr mit Datenschutz zu tun ! Sicher aber auch ein schwieriges Thema
    iLike 7
  5. Tom 10. Januar 2020 um 00:55 Uhr ·
    Das war es dann wohl mit dem seitens Apple hoch gelobten Datenschutz.
    iLike 13
  6. ithommy 10. Januar 2020 um 09:31 Uhr ·
    Guten Morgen , es geht um Kinderschutz und da sollte man nicht überlegen. Jeder weiß das seine Daten bei Apple sicher sind . Es ist wie beim Arzt. Die Angestellten dürfen reinschauen . Und müssen schweigen. Was macht ihr für ein Theater wenn es um unsere Kinder geht.
    iLike 3
    • Jan Tenner 10. Januar 2020 um 17:03 Uhr ·
      Weil der Zweck nunmal nicht alle Mittel heiligt, auch wenn der Zweck noch so gut ist. (Soweit ich aber den Artikel verstehe, werden nur Bilder gescannt, die geteilt werden.)
      iLike 5
  7. andreas 10. Januar 2020 um 12:43 Uhr ·
    Gut so
    iLike 2
  8. Chef vom Dienst 10. Januar 2020 um 18:18 Uhr ·
    Apple scannt Fotos in der iCloud der Nutzer auf Fälle von Kindesmissbrauch hin, das hat das Unternehmen nun bestätigt. hin? hinweist? Gut, solange die Daten nur für die Analyse der Fotos verwendet werden.
    iLike 1

Leider kann man keine Kommentare zu diesem Beitrag mehr schreiben.