Strona w budowie, zapraszamy wkrótce...

Zapraszamy już za:

[wpdevart_countdown text_for_day="Dni" text_for_hour="Godzin" text_for_minut="Minut" text_for_second="Sekund" countdown_end_type="date" font_color="#000000" hide_on_mobile="show" redirect_url="" end_date="21-09-2020 12:00" start_time="1600339301" end_time="0,1,1" action_end_time="hide" content_position="center" top_ditance="10" bottom_distance="10" ][/wpdevart_countdown]

Strona w budowie, zapraszamy wkrótce...

Facebook chwali się skutecznością swojego AI w wyłapywaniu i usuwaniu tzw. mowy nienawiści. Czy naprawdę jest tak skuteczny?

Facebook twierdzi, że AI firmy Marka Zuckerberga teraz wykrywa 94,7% mowy nienawiści, która jest usuwana z platformy mediów społecznościowych. Informację podał na blogu firmowym Mike Schroepfer, dyrektor ds. Technologii Facebooka. Dodał, że wzrosła ona z 80,5% rok temu i zaledwie 24% w 2017 r. Liczba ta została również udostępniona w najnowszym raporcie Facebooka dotyczącym przestrzegania standardów społeczności.

Firmy zajmujące się mediami społecznościowymi, takie jak Facebook, Twitter czy TikTok, były krytykowane za to, że nie umieją wstrzymywać rozlewającej się po sieci mowy nienawiści. Sama natura mediów społecznościowych sprawia, że część użytkowników będzie pisała rzeczy, które, zwłaszcza w wyjątkowo wrażliwych na niektóre kwestie społeczeństwach Zachodu, mogą uchodzić za obraźliwe. To rodzi naturalnie problem – konieczność moderacji jest tu przytłoczona masową skalą. Po prostu treści jest zbyt wiele, aby dało się polegać wyłącznie na ludzkiej moderacji. Rozwiązaniem ma być AI.

„Głównym celem wysiłków Facebooka w zakresie sztucznej inteligencji jest wdrażanie najnowocześniejszej technologii uczenia maszynowego w celu ochrony ludzi przed szkodliwymi treściami” – powiedział Schroepfer we wpisie na blogu. – „Miliardy ludzi używają naszych platform, więc polegamy na sztucznej inteligencji, aby skalować naszą pracę nad recenzowaniem treści i automatyzować decyzje, gdy jest to możliwe (…) Naszym celem jest szybkie i dokładne wykrywanie mowy nienawiści, dezinformacji i innych form treści naruszających zasady, dla każdej formy treści, dla każdego języka i społeczności na całym świecie”.

Facebook niedawno wdrożył dwie nowe technologie sztucznej inteligencji, aby pomóc mu sprostać tym wyzwaniom. Pierwsza nazywa się Reinforced Integrity Optimizer, (ang. „Wzmocniony optymalizator integralności”), która uczy się na podstawie rzeczywistych przykładów i danych dostępnych w Internecie, a nie ze zbioru danych offline. Uczy się więc dość dynamicznie. Druga to architektura sztucznej inteligencji zwana „Linformer”, która umożliwia Facebookowi stosowanie złożonych modeli rozumienia języka, które wcześniej były zbyt duże aby działać na dużą skalę. Uzupełnieniem są mechanizmy wykrywania deepfake’ów.

Nie oszukujmy się, zgłoszona przez Facebooka olbrzymia skuteczność AI musi wzbudzać i wzbudza pewne wątpliwości. Przede wszystkim nie do końca możliwym jest, aby AI wyłapywało subtelności różnych języków. Możliwe, że nieźle radzi sobie z angielskim, acz i tu zapewne trudno jest objąć wszelkie określania regionalne lub slangowe. Prawdopodobnie AI nie poradzi sobie także, w dowolnym języku, z sarkazmem.

https://itreseller.com.pl/itrnewusluga-streamingu-gier-nvidia-geforce-now-nareszcie-trafia-na-urzadzenia-z-systemem-ios-uzytkownicy-ipadow-i-iphoneow-beda-mogli-wreszcie-zagrac-w-zaawansowane-gry/

Dodaj komentarz

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

POLECANE

3,272FaniLubię
10,608ObserwującyObserwuj
1,570SubskrybującySubskrybuj

NOWE WYDANIE

POLECANE

NAJNOWSZE