Media społecznościowe wykorzystują Twoje treści do treningu sztucznej inteligencji
Media społecznościowe wykorzystują Twoje treści do treningu sztucznej inteligencji? Odpowiedź jest jednoznaczna - tak.
OpenAI stwierdziło, że stworzenie ChatGPT byłoby niemożliwe bez użycia materiałów chronionych prawem autorskim,
a LinkedIn wykorzystuje życiorysy użytkowników, aby udoskonalać swoje modele AI i trenować systemy sztucznej inteligencji Microsoftu.
Snapchat z kolei ujawnił, że jeśli korzystasz z określonych funkcji AI, Twoja twarz może pojawić się w reklamach.
Takie sygnały i informacje rodzą uzasadnione, trudne pytania o
ochronę prywatności w internecie oraz etyczne wykorzystanie danych użytkowników.
Coraz częściej posty z mediów społecznościowych, w tym zdjęcia, są wykorzystywane przez firmy do zasilania ich systemów sztucznej inteligencji,
niejednokrotnie bez wiedzy użytkowników. Dla firm prowadzących modele AI, media społecznościowe to cenne źródło danych,
ponieważ te posty odzwierciedlają język konwersacyjny, slang i aktualne wydarzenia, które są użyteczne przy trenowaniu chatbotów.
Jednak wielu użytkowników może nie być zadowolonych z tego, że ich prywatne posty, zdjęcia z wakacji czy selfie są wykorzystywane do zbudowania technologii,
a tym samym generowania zysków dla korporacji wartych miliardy. Czy jako użytkownik masz na to wpływ? Czy możesz coś z tym zrobić?
Różne platformy oferują użytkownikom różne opcje rezygnacji z udostępniania danych do trenowania AI,
jednak publikowanie treści publicznie online oznacza, że mogą one nadal być wykorzystywane przez zewnętrzne firmy bez Twojej wiedzy.
Oto, jak niektóre z największych platform mediów społecznościowych wykorzystują dane użytkowników do trenowania modeli AI oraz jak można ograniczyć ich użycie:
Meta (Facebook i instagram)
Meta wykorzystała publiczne treści z Facebooka i Instagrama do trenowania swoich systemów AI, w tym posty, komentarze i zdjęcia profilowe.
Użytkownicy, którzy chcą tego uniknąć, muszą ustawić swoje konta na prywatne. Meta zapewnia, że prywatne wiadomości nie są używane do trenowania sztucznej inteligencji.
Warto zauważyć, że nawet jeśli nie korzystasz z usług Meta, aby ulepszać swoje technologie, firma może nadal wykorzystywać Twoje dane, na przykład Twoje zdjęcie, które zamieścił ktoś inny, np. znajomy
X (dawniej Twitter)
Platforma X, której właścicielem obecnie jest Elon Musk, wykorzystuje posty i rozmowy z chatbotem Grok do trenowania swoich systemów AI.
Użytkownicy X mogą zrezygnować z udostępniania tych danych, przechodząc do „Ustawienia i pomoc” > „Prywatność i bezpieczeństwo” > „Grok”,
gdzie mogą odznaczyć pole przy „Zezwalaj na używanie danych wejściowych i wyników na potrzeby szkolenia Groka i dostrajania jego działania”.
Możesz także usunąć historię rozmów. Konta prywatne są również wyłączone z użycia do trenowania AI.
LinkedIn aktualnie pozwala użytkownikom decydować, czy ich dane mogą być używane do trenowania modeli generatywnej sztucznej inteligencji.
Choć serwis stara się usuwać dane osobowe z zestawów treningowych, wyłączenie tej opcji nie cofa wcześniejszego wykorzystania danych do trenowania AI.
Użytkownicy mogą przejść do „Ustawienia i Prywatność”, wybrać „Prywatność Danych”, następnie kliknąć „Dane do ulepszania generatywnej AI” i wyłączyć tę opcję.
Snapchat
Funkcja „My Selfie” w Snapchacie pozwala użytkownikom generować obrazy AI na podstawie ich selfie.
Warto podkreślić, że korzystanie z tej funkcji umożliwia Snapchatowi oraz reklamodawcom używanie twarzy użytkowników w generowanych przez AI reklamach.
Użytkownicy, którzy dotąd skorzystali z tej funkcji, mogą wyłączyć tę opcję, przechodząc do „Ustawienia” > „Moje konto” > „My Selfie” i wyłączając „Zobacz moje selfie w reklamach”.
Użytkownicy Reddita przyznają platformie licencję na korzystanie z publicznych postów do trenowania AI.
Reddit współpracuje z firmami takimi jak Google i OpenAI, ale użytkownicy nie mogą zrezygnować z tego,
by ich publiczne treści były udostępniane. Natomiast warto zaznaczyć, że wiadomiości prywatne wiadomości posty w prywatnych społecznościach nie są udostępniane.
Ochrona prywatności w internecie. Co robić i jak o nią dbać?
Jednakże, w miarę jak nasza obecność online się pogłębia, stajemy się bardziej narażeni na potencjalne zagrożenia związane z ochroną prywatności. Ochrona prywatności online staje się więc niezwykle ważnym wyzwaniem.
Media a prywatność - podsumowanie
Współczesne platformy mediów społecznościowych coraz częściej wykorzystują treści generowane przez użytkowników,
takie jak posty, zdjęcia czy interakcje, do trenowania systemów sztucznej inteligencji.
Firmy takie jak LinkedIn, X (Twitter), Snapchat, Reddit i Meta zbierają te dane, aby rozwijać swoje modele AI, często bez pełnej świadomości użytkowników.
Chociaż niektóre platformy oferują opcję rezygnacji z takiego wykorzystania danych, publikowanie treści publicznie w internecie niesie ryzyko,
że zostaną one wykorzystane przez zewnętrzne podmioty. Użytkownicy powinni być świadomi, jak ich treści mogą być używane,
a platformy muszą dążyć do większej transparentności w kwestii ochrony danych i sposobu ich wykorzystania w AI.
Konkluzja
Coraz większe znaczenie AI w funkcjonowaniu mediów społecznościowych rodzi pytania o ochronę prywatności w internecie oraz etyczne wykorzystanie danych użytkowników. Choć niektóre platformy oferują opcje ograniczenia dostępu do danych, użytkownicy powinni zachować ostrożność, publikując swoje treści publicznie, a także być świadomi, że pełna kontrola nad ich danymi może być trudna do osiągnięcia. W miarę jak AI staje się coraz bardziej wszechobecna, rośnie potrzeba jasnych zasad ochrony prywatności oraz odpowiedzialnego wykorzystania danych przez firmy technologiczne.