Apple wydało niedawno drugą wersję beta swojego systemu iOS 15.2, w której zaimplementowano w aplikacji Wiadomości funkcję zwiększającą bezpieczeństwo komunikacji pod kątem blokowania niepożądanych treści. Wdrożenie takiej funkcji było zapowiadane już wcześniej, jednak spotkało się z licznymi głosami krytycznymi odnoszącymi się nie do samej idei, ale do zaimplementowanego algorytmu. Niedopowiedzeń i niejasności było na tyle dużo, że koncern zdecydował się opóźnić jej wprowadzenie.

Nowa funkcja Wiadomości wykorzystuje algorytm uczenia maszynowego, który przeprowadza analizę załączonych do wiadomości zdjęć/materiału video pod kątem sprawdzenia  – cokolwiek by to nie znaczyło – erotycznego charakteru. Zaimplementowana funkcja działa tylko w obrębie telefonu, bez wysyłania żadnych danych. Rodzic może ją uaktywnić na telefonie dziecka.

W przypadku wykrycia „podejrzanego” zdjęcia czy materiału video, jego wyświetlenie zostanie domyślnie zablokowane. Na ekranie telefonu pojawi się informacja z ostrzeżeniem. Jeśli zdecydujemy się obejrzeć materiał, pojawi się kolejna informacja o możliwej próbie wyrządzenia krzywdy poprzez prezentację treści zawartej na zdjęciu/video. Wyświetlenie zdjęcia/video spowoduje wysłanie powiadomienia do rodzica o wyświetleniu potencjalnie kontrowersyjnego zdjęcia czy filmu.

To oczywiście nie jest ostateczne wydanie systemu, rzeczona funkcja może zostać jeszcze zmodyfikowana, ale daje realne wyobrażenie o sposobie jej działania.

Myślę, że taka funkcjonalność z pewnością przyda się w każdym telefonie. Zakładam, że algorytm może generować fałszywe alarmy, błędnie interpretować przesyłane zdjęcia.  Głównie chodzi jednak o uświadomienie naszym pociechom możliwości otrzymywania treści, które nie są dla nich przeznaczone i mogą negatywnie oddziaływać na ich psychikę. Technika zaproponowana przez Apple  – o ile nie narusza  zasad prywatności użytkownika – może okazać się trafna i właściwa do zapewnienia wyższego poziomu bezpieczeństwa naszych dzieci.