Jak wykorzystujemy technologię do wykrywania szkodliwej zawartości
Aby chronić użytkowników przed szkodliwą zawartością i zachowaniem, stosujemy wielowarstwowe podejście.
Aby wykrywać i powstrzymywać rozprzestrzenianie się określonych kategorii znanych nielegalnych i szkodliwych treści graficznych, wdrażamy technologie dopasowywania skrótów PhotoDNA i MD5 w odniesieniu do obrazów i treści wideo udostępnianych za pośrednictwem hostowanych usług konsumenckich firmy Microsoft oraz w odniesieniu do treści przesyłanych do wyszukiwarek obrazów w Internecie. „Skróty” to obrazy przekształcone w serie liczb, które można łatwo porównywać, przechowywać i przetwarzać. Te „skróty” nie są odwracalne, co oznacza, że nie można na ich podstawie odtworzyć oryginalnych obrazów. W razie potrzeby polegamy na odstępstwie dozwolonym na mocy Rozporządzenia Unii Europejskiej (UE) 2021/1232 w celu wykorzystania technologii dopasowywania skrótów w celu wykrywania treści o potencjalnym charakterze seksualnym z udziałem dzieci w usługach objętych dyrektywą UE 2002/58/WE.
Możemy również korzystać z technologii uczenia maszynowego, takich jak klasyfikatory tekstowe, klasyfikatory obrazów i techniki wykrywania uwodzenia, aby wykrywać treści lub zachowania udostępniane za pośrednictwem hostowanych usług konsumenckich firmy Microsoft, które mogą być niezgodne z prawem lub naruszać nasze zasady. Wykorzystujemy też zgłoszenia od użytkowników, instytucji rządowych i zaufanych sygnalistów, które kierują naszą uwagę na potencjalne naruszenia naszych zasad. Te różne techniki są dostosowane do funkcji i usług, w których są wdrażane, co oznacza, że nie możemy wykorzystywać wszystkich technologii we wszystkich usługach ani wykorzystywać ich w ten sam sposób we wszystkich usługach.
W ramach niektórych naszych usług wdrażamy również narzędzia służące wykrywaniu i blokowaniu niewłaściwego wykorzystywania wideorozmów do tworzenia i udostępniania materiałów wizualnych przedstawiających wykorzystywanie seksualne dzieci i nadużycia seksualne (CSEAI) przez użytkowników wysokiego ryzyka. Firma Microsoft korzysta z kilku sygnałów w celu identyfikacji użytkowników wysokiego ryzyka, w tym z ich wcześniejszej bezpośredniej komunikacji z użytkownikami, którzy zostali zawieszeni lub zablokowani za udostępnianie materiałów CSEAI. Jeśli użytkownik zostanie zidentyfikowany jako osoba wysokiego ryzyka i pojawią się inne sygnały, do rozmowy na żywo zostanie wdrożony bot. Bot wykorzystuje sztuczną inteligencję, aby w czasie niemal rzeczywistym określić, czy rozmowa wideo na żywo zawiera treści kategorii CSEAI. Jeżeli podczas połączenia zostanie wykryty problem kategorii CSEAI, funkcja wideo w tym połączeniu zostanie wyłączona.
Znajdujemy naruszenia
Inni znajdują naruszenia
Znajdujesz naruszenia
Kontrola zawartości
Kontrolerzy sprawdzają obrazy, filmy, wiadomości i kontekst.
Zasady
Zasady firmy Microsoft dotyczące zawartości i postępowania zawierają objaśnienie tego, co jest niedozwolone w naszych usługach.