Facebook nie pozwoli ci na samobójstwo
Liczba osób, dla których samobójstwo wydaje się jedynym wyjściem z trudnej sytuacji życiowej, jest niebezpiecznie wysoka. Zdają sobie z tego sprawę firmy mogące mieć wpływ na zmniejszenie skali zjawiska. Jedną z nich jest Facebook, który wystartował niedawno z programem pilotażowym mającym na celu zapobieganie temu niebezpiecznemu zjawisku. Testy zakończyły się pomyślnie, dzięki czemu Zuckerberg postanowił wdrożyć rzeczone rozwiązanie globalnie. Niestety, FB nie będzie w stanie pomóc każdemu, za co winę ponoszą przepisy prawa.
Wykrycie osób chcących popełnić samobójstwo jest dziś wbrew pozorom łatwiejsze niż dekadę lub dwie temu. Niegdyś przyszli samobójcy dusili w sobie emocje lub opisywali je w pamiętnikach. Zapiski mogły zostać odkryte przez osoby trzecie, a nawet rodziców, ale przeważnie odczytywano je już po “fakcie”. Dziś ludzie młodzi, choć nie tylko oni, publikują na Facebooku lub innych serwisach społecznościowych wpisy dające do myślenia. Niektóre posty lub komentarze są na tyle podejrzane, iż warto skupić się na ich autorach. Możliwe, że dana osoba potrzebuje pomocy.
Niestety, lwia część przypadków jest przez społecznościową brać pomijana lub lekceważona. A gdyby za “wychwytywanie” niepokojących sygnałów odpowiadała sztuczna inteligencja w postaci specjalnych algorytmów? To właśnie postanowił zaserwować użytkownikom FB sam CEO firmy — Marc Zuckerberg.
Sygnały zwiastujące samobójstwo
Wspomniałem już o tym, że Facebook wdrożył program pilotażowy mający na celu wykrywanie postów, komentarzy oraz wideo na żywo, które mogłyby sugerować możliwość popełnienia samobójstwa przez autora. Wygląda na to, że rozwiązanie okazało się naprawdę skuteczne, gdyż Zuckerberg doszedł do wniosku, iż warto wdrożyć funkcje globalnie, a nie testowo, jak to miało miejsce w USA. Jak działa system “ostrzegania”?
Specjalne oprogramowanie analizuje wszystkie komentarze, posty oraz materiały “wideo na żywo” w celu odnalezienia słów sugerujących, że za chwilę może stać się coś złego. Istotne mogą być komentarze dopytujące, czy u użytkownika wszystko jest w porządku oraz to jak się trzyma. Niby niewiele znacząca fraza, a jej właściwa interpretacja może uratować komuś życie.
Wspomniany algorytm jest tylko pierwszą linią, która odpowiada za wykrywanie treści, które będą musiały być następnie zweryfikowane przez pracowników Facebooka. Kiedy zespół stwierdzi, iż dany przypadek jest poważny, powiadomi o tym odpowiednie służby oraz osoby będące blisko z ludźmi mogącymi planować samobójstwo.
Nie dla Polaków
Kiedy pierwszy raz przeczytałem o rozwiązaniu, pomyślałem, że jest ono naprawdę potrzebne. Cieszyłem się, że sztuczna inteligencja może być wykorzystana w celach ochrony życia. To ważne, zwłaszcza że ostatnio coraz częściej mówi się o zagrożeniach z nią związanych. Niestety, okazuje się, że “system wykrywający samobójstwo” nie będzie wdrożony w naszym kraju. Co ciekawe, nie dotyczy to bezpośrednio Polski, ale wszystkich państw członkowskich Unii Europejskiej. EU za sprawą przepisów ograniczających działania gigantów nie pozwala na pewne praktyki, nawet takie, które mogą pomóc w ochronie życia.
We are starting to roll out artificial intelligence outside the US to help identify when someone might be expressing thoughts of suicide, including on Facebook Live. This will eventually be available worldwide, except the EU. — Guy Rosen, VP of Product Management
Pozostaje mieć nadzieję, że Facebook znajdzie sposób na obejście przepisów i dostarczy europejskim użytkownikom system mogący zapobiegać samobójstwom.
Źródło: Facebook
Foto: Pixabay