Facebook a dat publicităţii noi informaţii privind modul în care face moderarea conţinutului şi cum foloseşte inteligenţa artificială în acest sens.
Un număr de9,6 milioane de postări din categoria hate speech a eliminat Facebook în perioada ianuarie - martie 2020. Este o creştere semnificativă în comparaţie cu cele 3,6 milioane de postări din perioada anterioară.
Gigantul american, deşi recunoaşte că mai este mult loc pentru progrese, spune că AI-ul depistează acum în mod proactiv 88,8% din postările de acest gen. În urmă cu un trimestru, acest procent era de 80,2%.
În aprilie, Facebook a aplicat etichete de avertizare la aproximativ 50 de milioane de postări care conţineau informaţii false sau nedovedite ştiinţific despre COVID-19. În 95% din cazuri, cei care observă postări cu astfel de label-uri decid să nu mai acceseze conţinutul respectiv.
De la 1 martie, au fost şterse peste 2,5 milioane de postări legate de măşti, mănuşi, dezinfectat şi alte produse legate de noul coronavirus.
O problemă aparte pentru sistemele de moderare a conţinutului folosite de Facebook o reprezintă meme-urile şi recunoaşterea tuturor copiilor şi formelor sub care o imagine cu text se propagă în vasta reţea socială.
În acest sens, Facebook foloseşte un instrument numit SimSearchNet. Acesta apelează la învăţarea mecanică pentru a încerca să descopere toate copiile unui meme care trebuie eliminat.
Facebook tocmai a acceptat să plătească 52 milioane de dolari în urma unui proces intentat de foştii moderatorii ai companiei, care au contractat afecţiuni precum stresul post-traumatic. Fiecare dintre aceştia va fi compensat cu cel puţin 1.000 de dolari, suma maximă putând ajunge până la 50.000 dolari.
Articolul de mai sus este destinat exclusiv informării dumneavoastră personale. Dacă reprezentaţi o instituţie media sau o companie şi doriţi un acord pentru republicarea articolelor noastre, va rugăm să ne trimiteţi un mail pe adresa abonamente@news.ro.