{"id":141173,"date":"2022-12-07T20:17:34","date_gmt":"2022-12-07T19:17:34","guid":{"rendered":"https:\/\/www.apfelpage.de\/?p=141173"},"modified":"2022-12-07T20:18:12","modified_gmt":"2022-12-07T19:18:12","slug":"koennen-kinder-auch-anders-schuetzen-icloud-kinderporno-scanner-von-apple-offiziell-beerdigt","status":"publish","type":"post","link":"https:\/\/www.apfelpage.de\/news\/koennen-kinder-auch-anders-schuetzen-icloud-kinderporno-scanner-von-apple-offiziell-beerdigt\/","title":{"rendered":"K\u00f6nnen Kinder auch anders sch\u00fctzen: iCloud-Kinderporno-Scanner von Apple offiziell beerdigt"},"content":{"rendered":"
Apple hat ein h\u00f6chst umstrittenes Programm f\u00fcr einen wirksameren Schutz von Kindern vor sexueller Ausbeutung beerdigt. Die Suche nach Kinderporno-Inhalten in iCloud-Fotos wird nicht kommen, das hat Apple heute best\u00e4tigt. In diesem Zusammenhang kam das Unternehmen zu einer wichtigen Erkenntnis.<\/strong><\/p>\n Das d\u00fcrfte Sicherheitsforscher, Datensch\u00fctzer und B\u00fcrgerrechtsaktivisten aufatmen lassen: Einer von Apples umstrittensten Pl\u00e4nen ist vom Tisch. Apple wird die iCloud-Fotos seiner Nutzer nicht automatisiert nach Kinderporno-Inhalten durchsuchen, das best\u00e4tigte<\/a> ein Unternehmenssprecher gegen\u00fcber WIRED.<\/p>\n Die Einf\u00fchrung der Funktion war bereits zuvor auf unbestimmte Zeit ausgesetzt worden, nun ist sie endg\u00fcltig abgesagt.<\/p>\n Nach intensiven Konsultationen mit Kinderschutzorganisationen und Initiativen habe Apple sich entschieden, einerseits seine Investitionen in effektive Schutzma\u00dfnahmen wie das Kommunikationssicherheitsfeature zu verst\u00e4rken, andererseits aber die umstrittene CSAM-Erkennung nicht einzuf\u00fchren.<\/p>\n Kinder k\u00f6nnen auch gesch\u00fctzt werden, ohne das Unternehmen personenbezogene Daten von Kunden durchw\u00fchlen, so der Sprecher weiter. Die Funktion war nicht nur von Sicherheitsforschern h\u00f6chst kritisch<\/a> gesehen worden, auch aus der Politik und den Medien und sogar aus Apples eigenen Reihen<\/a> war Sorge und Kritik zu vernehmen gewesen.<\/p>\n Aktiv bleibt dagegen die Kommunikationssicherheit in iMessage: Sie soll daf\u00fcr sorgen, dass Kinder nicht mit Nacktfotos konfrontiert werden und auch selbst nicht ungebremst solche Aufnahmen verschicken. Der Filter ist allerdings deutlich weniger invasiv, birgt kein gef\u00e4hrliches Missbrauchs- oder Fehlerpotenzial und ist – das muss angemerkt werden – aufgrund seiner Beschr\u00e4nktheit auf iMessage und die weiteren Nutzungsvoraussetzungen wohl ohnehin weitgehend bedeutungslos.<\/p>\n Das Ende f\u00fcr den Kinderporno-Scanner f\u00e4llt mit der Ank\u00fcndigung einer voll ausgebauten Ende-zu-Ende-Verschl\u00fcsselung f\u00fcr die iCloud<\/a> zusammen. Apple hat ein h\u00f6chst umstrittenes Programm f\u00fcr einen wirksameren Schutz von Kindern vor sexueller Ausbeutung beerdigt. Die Suche nach Kinderporno-Inhalten in iCloud-Fotos wird nicht kommen, das hat Apple heute best\u00e4tigt. In diesem Zusammenhang kam das Unternehmen zu einer wichtigen Erkenntnis. Das d\u00fcrfte Sicherheitsforscher, Datensch\u00fctzer und B\u00fcrgerrechtsaktivisten aufatmen lassen: Einer von Apples umstrittensten Pl\u00e4nen ist vom … Weiterlesen …<\/a><\/p>\n","protected":false},"author":68,"featured_media":122366,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":"","jetpack_publicize_message":"K\u00f6nnen #Kinder auch anders sch\u00fctzen: der Kinderporno-Scanner f\u00fcr Fotos in der #iCloud von #Apple ist nun offiziell beerdigt...","jetpack_publicize_feature_enabled":true,"jetpack_social_post_already_shared":true,"jetpack_social_options":{"image_generator_settings":{"template":"highway","enabled":false},"version":2}},"categories":[3],"tags":[1366,1655],"appful":[],"class_list":["post-141173","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-apple","tag-datenschutz","tag-sicherheit"],"jetpack_publicize_connections":[],"yoast_head":"\nApple: K\u00f6nnen Kinder sch\u00fctzen, ohne personenbezogene Daten zu sammeln<\/h2>\n
\nZusammenfassend l\u00e4sst sich sagen: Heute ist ein guter Tag f\u00fcr den Datenschutz bei Apple und dar\u00fcber hinaus.<\/p>\n","protected":false},"excerpt":{"rendered":"