ИИ усложняет работу модераторов: алгоритмы не справляются с опасным контентом

26.08.2025
Бизнес, Полезное
ИИ

Содержание материала

Контент-модераторы жалуются, что внедрение искусственного интеллекта вместо упрощения работы только усложнило ее: алгоритмы часто ошибаются при распознавании жестокого и опасного контента, создавая дополнительную нагрузку на специалистов и повышая риск распространения вредной информации в сети.

Контент-модераторы жалуются, что внедрение систем искусственного интеллекта вместо упрощения их работы создает дополнительные трудности. По данным Bloomberg, основанным на интервью с 13 специалистами отрасли, ИИ пока не способен надежно распознавать жестокий и вредный контент.

Сотрудник TikTok под псевдонимом Кевин рассказал, что с момента начала использования ИИ в своей работе более года назад система ошибается примерно в 70% случаев. Например, алгоритм может обращать внимание на уровень топлива на приборной панели, игнорируя спидометр с показанием 200 км/ч, который имеет ключевое значение для оценки опасности.

Модераторы отмечают, что ИИ внедряется быстрее, чем успевает научиться качественно фильтровать опасный контент. Специалисты предупреждают о риске появления интернет-пространства под контролем алгоритмов, где будут свободно распространяться язык ненависти, пропаганда, угрозы детям и другие опасные материалы.

Также читайте:

Хотите оптимизировать налоги для своего бизнеса?

Бесплатня консультация

подпишитесь

Читайте нас там, где удобно вам. С нами не соскучиться

Наш Instagram

Наш Facebook

Наш Telegram

Наш Linkedin

Наш Threads

Наш Tik Tok

Наш Youtube

Наш Whatsapp

Прокрутить вверх