Facebook групи со илјадници членови – од љубители на Pokémon картички до форуми за родители и берзански совети – одеднаш се најдоа под удар на алгоритамот кој, според Meta, „ненамерно детектираше прекршувања на правилата на заедницата“.
Грешка во автоматизираниот систем за модерирање доведе до моментално деактивирање на илјадници групи. Многу администратори добиле известувања за „прекршување на правилата поврзани со тероризам, насилство или експлицитна содржина“ – иако во групите немало ништо слично објавено.
Корисници ширум светот ги споделуваат своите искуства на Reddit и други форуми. Во еден пост стои:
„Нашата група за штедење за родители беше избришана под навод дека ширела насилна содржина. Тоа е апсурд. Најлошото е што жалбите автоматски ги обработува истиот AI што ја направи грешката – и веднаш ги одбива“, објави TechCrunch.
Meta реагира, но без конкретен рок
Од Meta потврдија дека станува збор за „техничка грешка“ и дека се работи на нејзино отстранување. Нивниот совет до администраторите е да не поднесуваат жалби веднаш, бидејќи тоа може дополнително да го искомплицира процесот. Наместо тоа, препорачуваат да се почека до 72 часа, по што групите би требало автоматски да бидат вратени.
Портпарол на Meta за американскиот TechCrunch изјави дека „интензивно се работи на решавање на проблемот и враќање на погодените заедници во функција“.
Подлабока криза на доверба во AI модерирањето
Ова не е првпат автоматизираните системи да предизвикаат колатерална штета. Слични инциденти се забележани и на Instagram, Pinterest и Tumblr. Додека Pinterest тврди дека станува збор за човечки грешки, а не за вештачка интелигенција, Meta сè уште не прецизирала што точно го предизвикало проблемот на Facebook.
Во меѓувреме, се појавија онлајн петиции со над 12.000 потписи, а некои администратори најавуваат и можни тужби против компанијата, укажувајќи на штетата нанесена на заедници кои ги граделе со години.
Извор: web-mind.rs