Roblox продолжает выполнять свои обещания по улучшению безопасности платформы, делая акцент на автоматизированных системах модерации. В недавнем обновлении было заявлено о значительном расширении функционала искусственного интеллекта, направленного на выявление и блокировку контента, нарушающего политику в отношении пользователей младше 13 лет.
Что это значит для игроков?
- Более строгий фильтр чата: Система стала лучше распознавать попытки обхода цензуры и подозрительные ссылки, особенно в публичных чатах и в описаниях пользовательских игр.
- Быстрое удаление небезопасных активов: ИИ теперь быстрее идентифицирует 3D-модели или текстуры, которые могут содержать неприемлемые изображения или символику, до того, как их заметят модераторы-люди.
Хотя это может привести к ложным срабатываниям (когда ИИ ошибочно блокирует легальный контент), общая цель компании — сделать опыт для младшей аудитории максимально контролируемым и безопасным.
