Контент-модераторы жалуются, что внедрение искусственного интеллекта вместо упрощения работы только усложнило ее: алгоритмы часто ошибаются при распознавании жестокого и опасного контента, создавая дополнительную нагрузку на специалистов и повышая риск распространения вредной информации в сети.
Контент-модераторы жалуются, что внедрение систем искусственного интеллекта вместо упрощения их работы создает дополнительные трудности. По данным Bloomberg, основанным на интервью с 13 специалистами отрасли, ИИ пока не способен надежно распознавать жестокий и вредный контент.
Сотрудник TikTok под псевдонимом Кевин рассказал, что с момента начала использования ИИ в своей работе более года назад система ошибается примерно в 70% случаев. Например, алгоритм может обращать внимание на уровень топлива на приборной панели, игнорируя спидометр с показанием 200 км/ч, который имеет ключевое значение для оценки опасности.
Модераторы отмечают, что ИИ внедряется быстрее, чем успевает научиться качественно фильтровать опасный контент. Специалисты предупреждают о риске появления интернет-пространства под контролем алгоритмов, где будут свободно распространяться язык ненависти, пропаганда, угрозы детям и другие опасные материалы.
