De omstreden functie om iCloud-accounts te scannen om te kijken of er afbeeldingen van kindermisbruik te vinden zijn wordt binnenkort uitgerold. Versie 15.2 van iOS zal deze functie standaard aan boord hebben.
De nieuwe versie richt zich op een aanpassing van de iMessage-app. De app checkt of verzonden en ontvangen afbeeldingen zogenoemde ‘child sexual abuse material’ (csam) bevatten. Als de app zulke afbeeldingen gedetecteerd heeft, wordt de foto automatisch geblurred en wordt er een melding getoond en een vraag of de gebruiker ok is met het zien van de afbeelding. De functie zou al eerder worden uitgerold, maar het bedrijf kreeg zoveel kritiek van privacy-voorvechters dat deze werd uitgesteld.
Apple drukt gebruikers nu op het hart dat de functie is aangepast en alleen via opt-in kan worden geactiveerd. Daarnaast werkt het algoritme dat de foto’s controleert alleen op de apparaten zelf. De informatie over deze update is in handen gekomen van Mark Gurman via Bloomberg. Het is nog niet duidelijk wanneer de nieuwe versie van iOS wordt uitgerold, maar aangezien er al enige tijd betaversies in omloop zijn zal het niet lang meer duren.
Bron: Bloomberg
3 besproken producten
Vergelijk | Product | Prijs | |
---|---|---|---|
![]() |
Apple iPhone 13 128GB Black
|
€ 788,0020 winkels |
|
![]() |
Apple iPhone 13 Pro 128GB Graphite
|
€ 1.182,004 winkels |
|
![]() |
Apple iPhone 13 Pro Max 256GB Graphite
|
€ 1.139,007 winkels |