Kompensation Für Das Tierkreiszeichen
Substability C Prominente

Finden Sie Die Kompatibilität Durch Zodiac -Zeichen Heraus

Erklärt: Warum Apple seine Software verzögert, die nach Fotos von Kindesmissbrauch sucht

Während der Schritt von Kinderschutzbehörden begrüßt wird, hissen Befürworter der digitalen Privatsphäre und Branchenkollegen Warnsignale, die darauf hindeuten, dass die Technologie weitreichende Auswirkungen auf die Privatsphäre der Benutzer haben könnte.

Auf diesem Dateifoto wird das Logo von Apple in einem Geschäft in der Münchner Innenstadt beleuchtet (dpa)

Nach Kritik von Datenschutzbeauftragten und Branchenkollegen hat Apple die Einführung seiner Software verschoben, die Fotos erkennen, die Kindesmissbrauch zeigen auf iPhones. Das Programm wurde letzten Monat angekündigt und soll noch in diesem Jahr in den USA auf den Markt kommen.





Was ist Apples Software und wie hätte sie funktioniert?

Apple kündigte letzten Monat an, einen zweigleisigen Mechanismus einzuführen, der Fotos auf seinen Geräten scannt, um nach Inhalten zu suchen, die als Material zum sexuellen Missbrauch von Kindern (CSAM) eingestuft werden könnten. Als Teil des Mechanismus würde Apples Tool neuralMatch nach Fotos suchen, bevor sie in iCloud – seinem Cloud-Speicherdienst – hochgeladen werden, und den Inhalt von Nachrichten untersuchen, die über seine Ende-zu-Ende-verschlüsselte iMessage-App gesendet werden. Die Nachrichten-App wird maschinelles Lernen auf dem Gerät verwenden, um vor sensiblen Inhalten zu warnen, während private Mitteilungen für Apple unlesbar bleiben, teilte das Unternehmen mit.

neuralMatch vergleicht die Bilder mit einer Datenbank mit Bildern von Kindesmissbrauch, und wenn es eine Markierung gibt, überprüfen Apples Mitarbeiter die Bilder manuell. Sobald der Kindesmissbrauch bestätigt wurde, wird das National Center for Missing and Exploited Children (NCMEC) in den USA benachrichtigt.



Was waren die Bedenken?

Während der Schritt von Kinderschutzbehörden begrüßt wird, hissen Befürworter der digitalen Privatsphäre und Branchenkollegen Warnsignale, die darauf hindeuten, dass die Technologie weitreichende Auswirkungen auf die Privatsphäre der Benutzer haben könnte. Es wird angenommen, dass es fast unmöglich ist, ein clientseitiges Scansystem zu bauen, das nur für sexuell eindeutige Bilder verwendet wird, die von Kindern gesendet oder empfangen werden, ohne dass eine solche Software für andere Zwecke optimiert wird. Die Ankündigung hatte Regierungen und Strafverfolgungsbehörden erneut ins Rampenlicht gerückt, die nach einer Hintertür zu verschlüsselten Diensten suchten. Will Cathcart, Leiter des Ende-zu-Ende-verschlüsselten Messaging-Dienstes WhatsApp, sagte: Dies ist ein von Apple entwickeltes und betriebenes Überwachungssystem, das sehr einfach verwendet werden könnte, um private Inhalte auf alles zu scannen, was sie oder eine Regierung kontrollieren wollen. Länder, in denen iPhones verkauft werden, haben unterschiedliche Definitionen, was akzeptabel ist.

Auch in erklärt| Wenn das nächste iPhone über eine Satellitenverbindung verfügt, wird dies die Technologie von Apple sein

Warum hat Apple zurückverfolgt?

In einer Erklärung sagte Apple, es werde mehr Zeit brauchen, um Feedback zu sammeln und die vorgeschlagenen Kindersicherheitsfunktionen zu verbessern, nachdem das System aus Datenschutz- und anderen Gründen sowohl innerhalb als auch außerhalb des Unternehmens kritisiert wurde.



Basierend auf dem Feedback von Kunden, Interessengruppen, Forschern und anderen haben wir beschlossen, uns in den kommenden Monaten zusätzliche Zeit zu nehmen, um Input zu sammeln und Verbesserungen vorzunehmen, bevor wir diese kritisch wichtigen Funktionen für die Kindersicherheit veröffentlichen, hieß es.

Laut Reuters hatte Apple den Plan wochenlang verteidigt und bereits eine Reihe von Erklärungen und Dokumenten angeboten, um zu zeigen, dass die Risiken von Fehlerkennungen gering waren.




geri halliwell höhe

Newsletter| Klicken Sie hier, um die besten Erklärer des Tages in Ihren Posteingang zu bekommen

Teile Mit Deinen Freunden: