Kompensation Für Das Tierkreiszeichen
Substability C Prominente

Finden Sie Die Kompatibilität Durch Zodiac -Zeichen Heraus

Erklärt: Wie Apple auf Geräten nach Bildern zur Ausbeutung von Kindern sucht und warum es die Augenbrauen hochzieht

Die Funktionen werden voraussichtlich zunächst in den USA live gehen und umfassen den Einsatz neuer Technologien zur Begrenzung der Online-Verbreitung von CSAM, insbesondere über die Apple-Plattform.

In einem Blogbeitrag erklärte Apple, dass es Kryptografieanwendungen über iOS und iPadOS verwenden wird, um bekannte CSAM-Bilder abzugleichen, die auf iCloud Photo gespeichert sind.

Apple hat das angekündigt Software-Updates später in diesem Jahr werden neue Funktionen bringen Dies wird dazu beitragen, Kinder vor Raubtieren zu schützen, die Kommunikationsmittel verwenden, um sie zu rekrutieren und auszubeuten, und die Verbreitung von Material über sexuellen Missbrauch von Kindern (CSAM) begrenzen.





Die Funktionen werden voraussichtlich zunächst in den USA live gehen und umfassen den Einsatz neuer Technologien zur Begrenzung der Online-Verbreitung von CSAM, insbesondere über die Apple-Plattform.

Dann gibt es einen On-Device-Schutz für Kinder vor dem Senden oder Empfangen sensibler Inhalte, mit Mechanismen, die Eltern benachrichtigen, falls der Benutzer unter 13 Jahre alt ist. Apple greift auch ein, wenn Siri oder die Suche verwendet werden, um CSAM-bezogene Themen zu suchen .



Welche Technologie unternimmt Apple, um die Verbreitung von CSAM online zu verhindern?

In einem Blogbeitrag erklärte Apple, dass es Kryptografieanwendungen über iOS und iPadOS verwenden wird, um bekannte CSAM-Bilder abzugleichen, die auf iCloud Photo gespeichert sind. Die Technologie gleicht Bilder in der iCloud eines Benutzers mit bekannten Bildern von Kinderschutzorganisationen ab. Und dies geschieht, ohne das Bild tatsächlich zu sehen, und nur durch die Suche nach einer Art Fingerabdruck-Übereinstimmung. Falls Übereinstimmungen einen Schwellenwert überschreiten, wird Apple diese Fälle an das National Center for Missing and Exploited Children (NCMEC) melden.

Apple stellte klar, dass seine Technologie die Privatsphäre der Benutzer berücksichtigt, und daher wird die Datenbank in einen unlesbaren Satz von Hashes umgewandelt, der sicher auf den Geräten der Benutzer gespeichert wird. Es fügte hinzu, dass das Betriebssystem, bevor ein Bild in iCloud hochgeladen wird, es mit den bekannten CSAM-Hashes abgleicht, indem es eine kryptografische Technologie namens Private Set Kreuzung verwendet. Diese Technologie bestimmt auch eine Übereinstimmung, ohne das Ergebnis preiszugeben.



An dieser Stelle erstellt das Gerät einen kryptografischen Sicherheitsgutschein mit dem Spielergebnis und weiteren verschlüsselten Daten und speichert diesen mit dem Bild in iClouds. Die Technologie zur gemeinsamen Nutzung von Schwellenwerten stellt sicher, dass diese Gutscheine von Apple nicht interpretiert werden können, es sei denn, das iCloud-Fotos-Konto überschreitet einen Schwellenwert bekannter CSAM-Inhalte. Dieser Schwellenwert, so behauptete das Blog, wurde eingeführt, um ein extrem hohes Maß an Genauigkeit zu gewährleisten und eine Chance von weniger als einer zu einer Billion pro Jahr zu gewährleisten, ein bestimmtes Konto fälschlicherweise zu kennzeichnen. Daher ist es unwahrscheinlich, dass ein einzelnes Bild eine Warnung auslöst.



Wenn der Schwellenwert jedoch überschritten wird, kann Apple den Inhalt der Sicherheitsgutscheine interpretieren und jeden Bericht manuell auf eine Übereinstimmung überprüfen, das Konto des Benutzers deaktivieren und einen Bericht an NCMEC senden. Apple sagte, dass Benutzer Einspruch einlegen können, wenn sie der Meinung sind, dass sie fälschlicherweise gekennzeichnet wurden.


Rick Steves Vermögen

Wie funktionieren die anderen Funktionen?

Apples neue Kommunikationssicherheit für Nachrichten wird ein sensibles Bild verwischen und ein Kind vor der Art des Inhalts warnen. Wenn dies über das Backend aktiviert ist, kann dem Kind auch mitgeteilt werden, dass seine Eltern über die angezeigte Nachricht informiert wurden. Dasselbe gilt, wenn das Kind beschließt, eine sensible Nachricht zu senden. Apple sagte, Messages werde maschinelles Lernen auf dem Gerät verwenden, um Bildanhänge zu analysieren und festzustellen, ob ein Foto sexuell eindeutig ist und Apple keinen Zugriff auf die Nachrichten erhält. Die Funktion wird als Update für Konten bereitgestellt, die als Familien in iCloud für die neuesten Betriebssystemversionen eingerichtet wurden.
Wenn ein Benutzer versucht, potenzielle CSAM-Themen nachzuschlagen, werden Siri und Search mit dem Update außerdem erklären, warum dies schädlich und problematisch sein könnte. Benutzer erhalten auch eine Anleitung, wie sie eine Anzeige über die Ausbeutung von Kindern erstatten können, wenn sie darum bitten.



Auch in erklärt| Erklärt: Wie und warum Google Kindern online mehr Schutz bietet

Warum tut Apple dies und welche Bedenken werden geäußert?

Große Technologieunternehmen stehen seit Jahren unter Druck, gegen die Nutzung ihrer Plattform zur Ausbeutung von Kindern vorzugehen. Viele Berichte haben im Laufe der Jahre unterstrichen, dass nicht genug getan wurde, um die Technologie daran zu hindern, CSAM-Inhalte breiter verfügbar zu machen.

Die Ankündigung von Apple ist jedoch auf Kritik gestoßen, und viele unterstreichen, dass dies genau die Art von Überwachungstechnologie ist, die viele Regierungen haben möchten und gerne missbrauchen. Die Tatsache, dass dies von Apple stammt, das seit langem der Datenschutzbeauftragte ist, hat viele überrascht.



Auch Kryptografie-Experten wie Matthew Green von der Johns Hopkins University haben Befürchtungen geäußert, dass das System verwendet werden könnte, um unschuldige Personen einzurahmen, die ihnen Bilder senden, die die Spiele für CSAM auslösen sollen. Forschern sei dies ziemlich einfach gelungen, sagte er gegenüber NPR und fügte hinzu, dass es möglich sei, solche Algorithmen zu täuschen.

Aber die New York Times zitierte Apples Datenschutzbeauftragten Erik Neuenschwander mit den Worten, diese Funktionen würden für normale Benutzer nichts anderes bedeuten.



Wenn Sie eine Sammlung von CSAM-Material speichern, ist dies schlecht für Sie, sagte er der Veröffentlichung.

Newsletter| Klicken Sie hier, um die besten Erklärer des Tages in Ihren Posteingang zu bekommen


Harvey Weinstein Höhe Gewicht

Haben andere große Technologieunternehmen ähnliche Technologien?

Ja. Tatsächlich ist Apple relativ spät in die Szene eingetreten, da Microsoft, Google und Facebook Strafverfolgungsbehörden auf CSAM-Bilder aufmerksam gemacht haben. Apple hinkte hinterher, weil eine solche Technologie gegen sein vielgepriesenes Engagement für die Privatsphäre der Benutzer verstoßen hätte. Infolgedessen konnte Apple im Jahr 2020, als Facebook dem NCMEC 20,3 Millionen CSAM-Verstöße meldete, nur 265 Fälle melden, berichtete die New York Times.

Erst jetzt hat es den Technologie-Sweetspot gefunden, um dies zu tun, ohne normale Benutzer zu beeinträchtigen oder sie zumindest zu erschrecken. Doch wie die anfängliche Gegenreaktion gezeigt hat, ist es immer noch eine Gratwanderung.

Teile Mit Deinen Freunden: