Модерация контента: «Простите, что?» или как правильно модерировать контент – Краткий справочник по модерации интернет-контента — Рамблер/новости

Содержание

«Простите, что?» или как правильно модерировать контент

Всплеск поддельных новостей в интернете и усиление негативных тенденций в восприятии брендов вынуждают компании пересматривать свое отношение к стратегиям модерации контента.

Для современной компании онлайн-контент становится одним из основных инструментовповышения узнаваемости брендов и способом взаимодействия с клиентами. Однако, наряду с более качественной информацией о компаниях, товарах и услугах через интернет также распространяется и огромное количество негативных публикаций, неподтвержденных слухов и сомнительных рецензий, влияющих на репутацию торговых марок.

С возникновением поддельных новостных сайтов и распространением анонимных отрицательных статей в сети компаниям приходится пересматривать стратегии взаимодействия с аудиторией, чтобы снизить риски негативного восприятия собственных брендов.

Восприятие бренда в значительной степени влияет на решения потребителей приобрети товар или услугу. Каждый раз, читая очередную рецензию или отзыв, слушая рассказы друзей и знакомых или посещая официальный сайт производителя, у потребителей складывается собственное впечатление о торговой марке и формируется отношение к ней.

Каким же образом компании могут формировать у клиентов позитивное восприятие своих брендов и контролировать результат? Все начинается с модерации контента. Современные контент-менеджеры сталкиваются с серьезными проблемами там, где пользовательский контент и рекламные площадки должны соответствовать стандартам компании. Однако модераторы-люди не в состоянии решить эту задачу в одиночку. Чтобы модерационные стратегии были эффективны, в помощь человеческим ресурсам необходимо привлекать технологии.

Для того, чтобы обезопасить бренд от дискредитаций в сети необходимо

 обеспечить отсутствие рекламы на сомнительных сайтах. Современные способы распространения информации в интернете позволяют тиражировать рекламные объявления по тысячам площадок за доли секунд, и это сильно усложняет работу модераторов. Даже прямым рекламодателям не всегда удается точно предугадать, где именно появится то или иное рекламное объявление.

В соответствии с современными алгоритмами площадки, где будут размещены рекламные объявления, определяются на основании социально-демографических показателей аудитории, а не прямым выбором конкретного сайта. Например, пользователь, искавший что-либо по тегу «мода» или «красота», будет постоянно сталкиваться с соответствующими рекламными объявлениями на самых разных сайтах, которые он посещает, независимо от тематической направленности этих сайтов. И такая тенденция продолжает расти. По прогнозам eMarketer затраты на программную автоматизацию рекламных объявлений в 2018 году в США достигнут 37,9 млн долл. (по сравнению с 25,2 млн долл. в 2016 году), что составит 82% от всех расходов на онлайн-рекламу.

“Масштабы интернета не позволяют человеку «переработать» весь объем имеющегося в наличии контента, – говорит Харикеш Нэр, профессор маркетинга из Высшей школы бизнеса при Стэнфордском университете. – Для решения этой задачи компаниям нужны цифровые инструменты, но даже в этом случае им придется нанимать специалистов или обучать собственных сотрудников. Для многих компаний первые попытки оказались неудачными и послужили причиной для отказа от дальнейшего движения в этом направлении.”

Иногда компании оказываются втянуты в медийные конфликты. Так, некоторое время назад в СМИ разразилась целая информационная буря, когда реклама компании Kelloggs внезапно появилась на сайте, известном своими антисемитскими, сексистскими и расистскими публикациями. Под давлением общественного мнения Kellogg’s были вынуждены снять с сайта всю свою рекламу на том основании, что данная площадка не соответствует заявляемым ценностям бренда.

Большую роль в усилении интернет-критики сыграло появление в Twitter аккаунта Sleeping Giants, которые смогли вовлечь огромное количество людей в «акцию протеста» против размещения рекламы на сомнительных ресурсах (примечание: если пользователь попадал на сайт определенной тематики, он мог сделать твит с тегом @slpng_giants и отправить скриншот экрана с вежливыми комментариями в компанию, чья реклама размещена на странице с «подозрительным» содержимым). Благодаря акции Sleeping Giants 818 брендов смогли снять свою рекламу с сомнительных площадок.

Помимо внешнего социального давления рекламодателей даже больше беспокоит невозможность получения прозрачной отчетности, чем появление фальшивых слухов и публикаций, ведущих к разжиганию ненависти.

Помимо внешнего социального давления рекламодателей даже больше, чем появление фальшивых слухов и публикаций, ведущих к разжиганию ненависти, беспокоит невозможность получать достоверную отчетность. По данным опроса Ассоциации национальных рекламодателей (ANA) и Forrester Consulting, 59% из опрошенных американских маркетологов в 2016 году сообщили, что они «серьезно озадачены отсутствием возможности получать точные отчеты», в 2014 году эта цифра составляла 43%.

Такие инструменты, как «белые», «черные» списки и семантические технологии призваны облегчить рекламщикам фильтрацию нежелательных площадок и сайтов для размещения рекламы. «Белые» списки позволяют точно указать сайты, на которых рекламу можно размещать, а «черные» – где ее запретить. Семантические технологии позволяют при помощи языковых фильтров предотвратить появление рекламы на определенного рода тематических сайтах или рядом с нежелательным контентом.

Однако в реальности мало кто из маркетологов активно пользуется подобного рода «защитными» инструментами. Согласно исследованиям ANA и Forrester Consulting только 51% американских маркетологов регулярно обновляют свои черные листы, в то время как 45% предпочитают использовать белые списки.

Тем не мене, даже использование подобных инструментов не гарантирует их абсолютную надежность. Рекламодатель не может просто внедрить автоматизированное решение и забыть о проблеме. Необходимо постоянно мониторить площадки и отдельные страницы на сайтах, где появляются рекламные объявления, чтобы быть уверенными в их безопасности. Так, алгоритмы Facebook ошибочно заблокировали bsdetector.tech, веб-сайт с популярным расширением для браузеров, позволяющим определять и помечать фейковые новостные ресурсы.

Компаниям нужны полноценные стратегии, позволяющие быстро и эффективно определять ресурсы с проблемным содержимым. И, соответственно, им необходимо решать вопрос с модерацией контента.

Что может делать контент-модератор? Модераторы играют важную роль, отслеживая появление «правильного» контента в интернете и следя за тем, чтобы его содержание соответствовало заявленным ценностям бренда. Контент-модератор может выполнять следующие задачи:

Пре-модерация. До того как сделать видимыми для всех, модератор предварительно просматривает содержание отзывов и постов на официальном сайте торговой марки или форумах и соцсетях бренд-сообщества. Этот способ лучше всего подходит для контента, размещение которого не критично по времени и/или если есть подозрение на то, что его содержание имеет клеветническую направленность. Например, в онлайн-сообществах с детской аудиторией этот способ поможет избежать издевательств и предотвратить нежелательное поведение.

Пост-модерация. UGC сразу же появляется в сети и одновременно попадает в виртуальную очередь на модерацию. Это позволяет пользователям беспрепятственно участвовать в обсуждениях в режиме реального времени. Так, инструментарий Facebook позволяет отметить пост или рекламное объявление нежелательного содержания специальными командами и быстро снять его с публикации.

Пассивная модерация или модерация с обратной связью. Такой вид модерации опирается на пользователей, готовых сообщать о появлении контента нежелательного содержания. Это значит, что объявление привлечет внимание модератора только в случае, если на него пожалуются, например, с помощью кнопки «Сообщить о нарушении» или «Пожаловаться». При наступлении такого события команда внешних модераторов просмотрит указанный пост и удалит его при необходимости. Пассивная модерация отдает управление контентом на откуп пользователям и разделяет с ними ответственность за показ и блокировку нежелательных объявлений. Однако, для пассивной модерации характерно большое количество ложных срабатываний, поскольку многие люди жмут на кнопку «Пожаловаться» без объективных причин.

Пользовательская модерация. В этом подходе ответственность за принятие решений о полезности пользовательского контента и его соответствии нормам и правилам безопасности ложится на посетителей. Объявление будет снято с публикации, если на него пожаловались определенное число раз. Подобно пассивной модерации с ростом интернет-сообщества способ модерации силами пользователей можно масштабировать довольно легко и с минимальными затратами. Тем не менее доверие сообществу осуществлять само-модерацию несет в себе очевидные риски. Компания должна выделить ответственного сотрудника, который будет отслеживать помеченный пользователями контент и/или установить некие критерии, в соответствии с которыми он сможет принимать решения, удалить или оставить его на сайте.

Автомодерация. В этом подходе в процессе обработки пользовательского контента используются различные технические средства автоматизации и устанавливаются правила, в соответствии с которыми контент или будет отклонен («забанен») или опубликован на сайте. Самым распространенным является фильтр по стоп-словам, которые заранее заданы как список исключений, и в случае появления в содержимом UGC слов из этого списка, в публикации они автоматически будут заменены на допустимые аналоги, или же такой пост будет полностью заблокирован. Бан по IP-адресу также относится к популярным инструментам автомодерации. Сегодня существуют и более сложные технические решения, которые используют механизмы аналитики разговорных шаблонов. Недостатком подобных автоматизированных решений является риск не учесть некоторые разговорные нюансы или пропустить нарушения, на которые обязательно обратит внимание модератор-человек.

Баланс между автоматизацией и человеческим фактором. Для наибольшей эффективности модераторы должны отлично знать контент, размещенный на сайте, понимать вкусы своей аудитории и ориентироваться в обсуждаемых темах. А также они должны разбираться в законах той страны, в чьей юрисдикции находится сайт, досконально знать пользовательские руководства и особенности платформы относительно разрешенного и запрещенного контента. И, что самое важное, они должны уметь быстро принимать решения.

Однако, даже самый быстрый и профессиональный модератор не в состоянии справиться с постоянно растущими потоками информации, наводняющей интернет. Для нахождения нежелательного контента компании все чаще совмещают возможности технологий с человеческими ресурсами.

Facebook, например, для выявления «фейковых» новостей наряду с алгоритмическими способами модерации использует и модераторов-людей. Алгоритмы определяют публикации, подпадающие под критерии нежелательного контента и приоритезируют их в очереди на проверку модераторам-людям. Если публикация отмечена как нежелательная определенное число раз, она отправляется на рассмотрение в коалицию таких организаций, как PolitiFact, Snopes и ABC News. Группа специалистов проанализирует статью и выдаст рекомендации, следует ли считать сомнительные места нежелательными для показа пользователям Facebook или нет.

Кроме того, статьи с подозрительным контентом будут показываться в самом низу ленты новостей. Если пользователь захочет поделиться такой статьей, всплывающее сообщение проинформирует его о том, что данный пост содержит материал сомнительного содержания.

Профессор Нэр, однако, полагает, что вряд ли когда-нибудь цифровые технологии полностью заменят модераторов-людей. “Машинное обучение и искусственный интеллект полезны только в качестве приложения к данным, которые с их помощью можно получать. Но критерии нежелательного контента не всегда можно точно формализовать – они очень субъективны, поэтому постоянно будет нужен человек, чтобы учить машину отличать качественный контент от недопустимого и контролировать результат”.

Как измерять результаты? Оценивать эффективность контент-модерации следует не только по количеству заблокированных постов. А если один пользователь в течение дня разместил сразу несколько постов с недопустимым содержанием? В этом случае статистика будет неточной.

“Более эффективный подход заключается в отслеживании целого ряда критериев, – считает Крис Браун, директор по персоналу компании Teletech. – Важным фактором является не только количество и типизация сомнительного контента, но и время отклика на его появление. Помимо этого, компании должны изучать содержимое удаляемого или блокируемого контента, а также сохранять и системно управлять этими знаниями.”

В конечном счете показатели эффективности для команды модераторов должны быть приведены в соответствие с целями и задачами компании. Так, для усиления позитивного восприятия бренда в аналитических целях компания может проводить опросы среди своих потребителей и делиться их мнениями. “Задача оценки эффективности контентной модерации с учетом постоянно меняющейся обстановки является исключительно сложной, – отмечает Браун. – В каждом случае успех должен определяться с учетом индивидуальных особенностей”.

Для контентной модерации сегодня настал переломный момент, развитие цифровых СМИ и скорость распространения информации вынуждают компании занимать активную позицию в отслеживании контента, влияющего на их имидж. И это не то направление, где маркетологи могут один раз решить проблему и забыть про нее. Здесь необходимы эффективные модерационные стратегии, опирающиеся как на инновационные технологии, которые позволяют быстро «прочесывать» интернет и находить посты сомнительного качества, так и на обученные человеческие кадры, умеющие отделять действительно нежелательное содержимое от ложных жалоб.

И пусть клеветнические новости и прочий нежелательный контент в интернет был, есть и будет, компании, которые готовы принять вызов и работать с возникающими проблемами, смогут выиграть в «рыночной» гонке, приз за которую – позитивное восприятие продуктов и брендов и лояльность потребителей.

Краткий справочник по модерации интернет-контента — Рамблер/новости

Поскольку Facebook, Twitter и YouTube недавно объявили о наборе кадров в команды по модерации контента (пусть и в разном объеме), я решил немного рассказать о том, как устроена работа таких систем. Большая часть этой статьи основана на моем личном опыте в YouTube, однако подход других компаний к этим вопросам идентичен. Я буду говорить в первую очередь о пользовательском, а не рекламном контенте. Логично, что к рекламе должны применяться немного другие стандарты. То, что я расскажу, применимо к текстам, изображениям и видео/аудио, которые может создать и опубликовать обычный пользователь.

Что нужно понимать под модерацией контента

Модерация, или проверка, контента — это термин, который применяется к контенту (тексту, изображениям, аудио, видео), который загружают, публикуют и распространяют пользователи социальных платформ. Его нужно отличать от рекламных или редакционных материалов (то есть контент, который помогает продвигать товары или сообщать новую информацию, если такая функция существует на платформе), которыми обычно занимаются отдельные команды с собственными стандартами проверки.

Задача большинства платформ модерации контента — претворение в жизнь Стандартов сообщества или Пользовательского соглашения, в которых оговорено, что можно и что нельзя публиковать на платформе. Как легко догадаться, в этой области множество белых, черных и серых областей, поэтому специалисты проходят специальную подготовку, учатся принципам и правилам принятия решений.

На каком этапе в процессе участвуют люди

Было бы очень странно (и неправильно), если бы люди 1) проверяли весь контент, опубликованный на сайте, и 2) проверяли контент до публикации — то есть «одобряли» контент, прежде чем пользователь сможет его опубликовать.

Вместо этого компании широко используют специальные алгоритмы проверки контента, которые берут на себя большую часть тяжелой работы. Алгоритмы пробуют «распознать» контент. На этапе создания можно выделить определенные сигналы — кто загружает контент (история аккаунта или ее отсутствие), геолокация, сам контент и другие метаданные. После публикации контента происходит сбор новых данных — кто его просматривает, жалуются ли на него другие пользователи, делятся ли им и другие параметры.

Эти более информативные сигналы также поступают на вход алгоритма, который уточняет свое решение о том, подходит ли контент сайту. Большинство таких систем позволяют другим пользователям отмечать данные специальными метками, что сильно влияет на решение алгоритма.

В общем случае можно считать, что каждое сообщение в определенный момент времени принимает зеленый, желтый или красный цвет. Зеленый цвет означает, что такое может существовать на сайте. Желтый цвет означает, что алгоритм пока не определился. А красный означает, что этим материалам не место на сайте. Каждая из этих меток непостоянна и неидеальна. Ложные срабатывания и пропуски случаются постоянно.

Недостаточно определять эффективность политики по оценке контента только качеством используемых технологий. На самом деле решения принимаются людьми, но при поддержке программного кода. Менеджмент должен задавать границы между зеленым, желтым и красным цветом. Нужно определить, будут ли новые пользователи по умолчанию считаться доверенными. Нужно задать очередность, с которой объекты из разных категорий будут проходить ручную проверку. И здесь в дело вступают люди…

Что такое очередь на проверку?

Люди помогают создавать обучающие наборы для алгоритмов, однако их главная задача — постоянно заполнять очередь проверки записями, которые выдал алгоритм. Очередь обычно разбивается на несколько потоков в зависимости от приоритетности проверки (например, «срочное», «для проверки в реальном времени» и т.д.) и характеристик проверяющих — люди могут быть обучены проверке разных типов контента, говорить на разных языках и т.д. Это сложная система со встроенной логикой, которая устроена как фабрика.

Объем контента, поступающего в очередь на проверку, определяется общим объемом контента, публикуемого на платформе, и порогами, после которых требуется вмешательство человека. На скорость проверки влияет количество проверяющих, их способности/обучение и эффективность используемых ими инструментов.

Таким образом, если вы слышите, что «объявлен набор десяти тысяч новых модераторов», на это могут быть две причины. Во-первых, может вырасти количество записей на проверку (то есть порог снижается, и вручную будут проверять больше записей). Во-вторых, контент в очереди будет проверяться быстрее (объем контента не изменится, но специалистов станет больше).

Для компаний это вообще важно?

Если честно, да, но…

Да, но обработка контента — это скорее источник затрат, а не прибыли, поэтому часто расходы таких отделов жестко оптимизируют и ограничивают в ресурсах.

Да, но обработка контента часто воспринимается как стартовая работа для будущих менеджеров по продукту, дизайнеров и инженеров, так что эти отделы часто состоят в основном из молодежи и не имеют серьезного влияния на общий ход работы, а каждые один-два года кадровый состав полностью обновляется.

Да, но нехватка разнообразия точек зрения и рассогласование интересов среди старшего руководства часто приводит к тому, что истинный ущерб (для бренда, для пользовательского опыта) в случае появления на платформе «злокачественного» контента часто недооценивается.

Почему явная порнография — самый простой для цензуры тип контента? И почему при этом модерировать контент «сексуальной» направленности очень сложно?

Потому что для публикации порно существуют куда более удобные инструменты, чем Twitter, Facebook или YouTube. Кроме того, алгоритмы с высокой точностью выявляют обнаженные сцены. Однако контент, созданный для сексуального удовлетворения, но не содержащий обнаженные сцены, отслеживать куда сложнее. Писал ли я о политике YouTube касательно фетиш-видео? Интересное было обсуждение…

Что можно посоветовать менеджерам?

Создайте новую метрику для панели управления. Если гендиректор с командой уделяет показателям безопасности контента столько же внимания, сколько прибыли, вовлечению и другим показателям, это докажет важность модерации контента.

Используйте абсолютные, а не относительные показатели. Когда самые крупные платформы заявляют, что «99% нашего контента безопасно», на самом деле они имеют в виде «1% от множества — это все еще множество». Стремление преуменьшить масштаб проблем — чаще всего PR-ход — дает понять, что в действительности до этих вещей никому нет дела.

Сконцентрируйтесь на предотвращении повторных нарушений и быстром исправлении уже имеющихся. Никто не ожидает от этих систем безошибочной работы, и, как мне кажется, лучшая тактика — считать всех пользователей благонадежными, пока те не докажут обратное, а виновных жестко наказывать. Особенно серьезные проблемы с этим у Twitter — в сети тут и там встречаются пользователи из «серой зоны».

Руководство должно иметь опыт работы в проверке контента. Когда я работал в YouTube на должности ведущего продукт-менеджера, я старался регулярно уделять время проверке контента, так как не хотел отгораживаться от реалий рутинной работы. Конечно, я насмотрелся всякой грязи, зато не забывал, через что приходится проходить нашим специалистам по проверке и пользователям.

Время проверки можно задавать на законодательном уровне. Мне интересно, может ли государство регулировать время проверки вместо регуляции самого контента. Понятно, что это комплексный вопрос, и новые требования могут привести к тому, что сервисы станут лояльнее подходить к спорному контенту, но сейчас меня очень занимает эта идея.

Источник

Материалы по теме:

Роскомнадзор показал сравнение соцсетей по удалению запрещенного контента

Как эмоции стали ключом к большому бизнесу

Instagram представил спам-фильтр для русского языка и новый фильтр оскорблений

Facebook будет бороться с политической пропагандой в соцсети

Фото на обложке: Carlos Muza/Unsplash

Модерация контента — Модерация — Русская поддержка Invision Community

Модерация контента — Модерация — Русская поддержка Invision Community Jump to content
  • Новое сообщество

    • Лицензия

    • Системные требования

    • Установка

    • Обновление

    • Перенос с других платформ

  • Приложения

    • Форумы

    • Страницы

    • Галерея

    • Загрузки

    • Блоги

    • Календарь

    • Магазин

  • Promotion

  • Общее использование

    • Знакомство

    • Общие настройки

    • Контент

    • Пользователи

    • Модерация

    • Авторизация через сайты

    • СЕО оптимизация

    • Управление файлами

Сервис модерации контента для онлайн-ресурсов 2hive — Трибуна на vc.ru

Здравствуйте, меня зовут Андрей Евсюков, мне 27 лет, я занимаюсь стартапами два года. 

Я занимаюсь коммерческой разработкой восемь лет, специализируюсь на Backend и SaaS-решениях. Хотел бы рассказать о проекте 2Hive.

2Hive — это cервис модерации контента для онлайн-ресурсов. 

Проект существует с апреля 2014 года, имеет два активных клиента и на данный момент работает в production-режиме. Наша команда включает в себя как технических специалистов, так и группу из шести модераторов, работающих в разных часовых поясах.

Тем, кто работал с сервисом, где более 5 тысяч пользователей, не надо расказвать, какой пипец происходит, если не обращать внимания на то, что же пользователи там выкладывают. Через неделю проект превратится в склад фоток Саши Грей, котиков, логотипов клевых тачек и нецензурных текстов.  

2Hive предлагает вам еще на стадии запуска подумать о вопросе модерации и решить ее быстрым, простым и недорогим способом:  

  • Вы интегрируетесь с нашей системой модерации и с момента запуска располагаете инструментом контроля контента. 
  • Пока контента нет или его объем маленький, вы пользуетесь сервисом бесплатно. 
  • Если вы уверено растете, то $25 за обслуживание — это ерунда по сравнению с затратами на разработку собственного решения для модераторов. 
  • В определенный момент пользователей станет так много, что вам потребуется целый штат модераторов. Тогда вам будет достаточно просто нажать кнопку, чтобы наша команда занялась вашим проектом на высокопрофессиоанльном уровне. 

Нам очень интересны проекты на ранних стадиях, и мы готовы давать им льготные условия обслуживания, помогать с интеграцией и консультировать по вопросам работы с контентом.

На данный момент мы ищем дополнительное инвестирование с целью расширить базу клиентов и вывести сервис на новый уровень.


Возвращаем микрофон читателям.

Хотите получить в руки микрофон и рассказать о своем стартапе? Добро пожаловать за трибуну.

Правила модерации на vc.ru

За что удаляем комментарии и блокируем аккаунты.

vc.ru — медиаплатформа, состоящая из коллективных сообществ и личных блогов, которые мы называем подсайтами. Контент в подсайтах создают пользователи, редакция или специально обученные роботы.

У подсайтов могут быть свои правила общения и публикации материалов, но есть пункты, которые распространяются на всю платформу.

1. Глобальные правила площадки

1.1 Спам и реклама. Мы не препятствуем публикации ссылок на собственные сайты и проекты, пока они остаются в интересах сообщества и публикуются в контексте дискуссий. Читатели должны знать, кто автор и в чём его экспертиза.

Запрещено добавлять реферальные и UTM-метки в ссылках — для пользователя они выглядят как рекламные. Не стоит использовать и сокращённые ссылки: пользователь должен понимать, куда он попадёт после клика.

Рекламные объявления будут распубликованы, а их авторы при повторной публикации — заблокированы. Материалы, которые исключительно рекламируют вас самих или какую-то компанию, будут распубликованы в любых подсайтах, кроме официальных корпоративных страниц. К таким материалам, например, относятся заявления про свою компанию или интервью, которое вы взяли сами у себя или своего начальника. Если у вас есть полезный опыт, который поможет другим, — напишите хорошую колонку или рассказ от первого лица.

Даже если вы пока (пока) не зарабатываете на своём проекте, реклама всё равно остаётся рекламой и воспринимается как реклама. Чтобы рассказать о своём проекте, используйте подсайт «Трибуна». Мы удаляем из него то, что не подходит под определение стартапа или больше похоже на пресс-релиз, чем на че

Модерация социальных сетей и онлайн-репутация

Большинство компаний стремится покорить социальные сети в самом начале своей деятельности. Если есть что сказать, то почему и нет. В сегодняшней статье речь пойдет не о том, как вести социальные сети. Сегодня мы поговорим про модерацию в социальных сетях. Модерация социальных сетей имеет тесную связь с онлайн-репутацией. Ваша главная цель в этом случае — устранение троллинга, оскорблений и непроверенной информации. Всегда будет соблазн удалить негативные отзывы или комментарии, которые могут оставить подписчики. Однако делать этого не стоит. Так вы не только закрываете глаза на проблемы ваших клиентов, но и наносите ущерб своей репутации. Вместо этого вы можете сосредоточить свои усилия на жалобах клиентов и позитивном взаимодействии. Существует 6 распространенных типов модерации, для поддержания порядка в вашем сообществе. Ниже мы кратко рассмотрим каждый из них.

1. Предварительная модерация

Любой пользовательский контент или комментарий, отправленный в ваше сообщество, помещается в очередь для проверки модератором. Преимущество данного метода заключается в том, что контент, который вы считаете нежелательным, не попадает в видимые разделы сообщества. Например, это может быть клевета, оскорбления и т.д. Этот вариант особенно хорошо подходит для сообществ, ориентированных на детей.

Хотя премодерация обеспечивает высокий контроль над тем, какой контент будет отображаться в вашем сообществе, у нее есть много минусов. Многие специалисты считают, что премодерация является одной из причин, из-за которой снижается или полностью исчезает активность подписчиков. Комментатор не получает удовлетворения потребности быть услышанным здесь и сейчас. Ему приходится ждать, когда комментарий пройдет проверку. Это приводит к тому, что диалог становится неактивным. Если задержка между отправкой и отображением сообщений слишком велика, то он останавливается. Другим сдерживающим фактором для использования премодерации является высокие трудозатраты. Когда ваше сообщество расширяется, количество заявок превышает порог возможностей модератора. В некоторых случаях вам придется увеличить штат модераторской команды.

Предварительная модерация наиболее подходит для сообществ с высоким уровнем правового риска. Например, сообщества знаменитостей,  сообщества, где защита детей имеет жизненно важное значение. Если контент не является диалоговым или чувствительным ко времени, например, обзоры или фотографии, ее также можно использовать, не оказывая слишком сильного влияния на динамику сообщества.

2. Постмодерация

В среде, где должна проводиться активная модерация, постмодерация является лучшей альтернативой с точки зрения взаимодействия с пользователем. Весь контент отображается на сайте сразу после отправки, но модерируется уже после публикации.

Основным преимуществом этого типа модерации является то, что разговоры происходят в режиме реального времени, что делает сообщество более интересным. Люди ожидают определенного уровня оперативности при взаимодействии в сети, и постмодерация позволяет это. В то же время это позволяет обеспечивать безопасность, решать поведенческие и юридические проблемы.

К сожалению, по мере роста сообщества затраты на потмодерацию могут стать непомерно высокими. Кроме того, поскольку каждый фрагмент контента просматривается сотрудниками компании, модерато становится, с юридической точки зрения, издателем контента. В некоторых случаях это может оказаться слишком рискованным для определенных сообществ. Например, сплетни, не проверенные слухи и клевета привлекают внимание очень быстро. Принимая во внимание, что количество просмотров контента будет напрямую влиять на размер возмещения убытков в случае судебного разбирательства, целесообразно установить короткие сроки рассмотрения контента.

3. Реактивная модерация

Реактивная модерация заключается в том, что члены вашего сообщества помечают нежелательный контент самостоятельно. Реактивная модерация может использоваться как самостоятельно, так и вместе с пре- и постмодерацией. Ваши подписчики становятся ответственными за то, каким контентом заполняется сообщество. Когда они сталкиваются с нежелательным контентом, они нажимают специальную кнопку. После этого администратор или модератор получает предупреждением о том, на что следует обратить особое внимание. Если контент действительно является нежелательным, его нужно будет удалить.

Основным преимуществом этого метода является то, что он может масштабироваться с ростом вашего сообщества без дополнительной нагрузки на модераторов. Чем больше подписчиков, тем больше свободных рук и глаз, которые будут наблюдать за порядком в обществе.

Однако если социальные сети являются вашей главной площадкой для взаимодействия с клиентами, вы не захотите рисковать своей репутацией, оставляя нежелательный контент на стене сообщества или группы до тех пор, пока кто-то из подписчиков не пометит его как «нежелательный».

4. Распределенная модерация

Распределенная модерация — довольно редкий тип модерирования контента, созданного пользователями. Обычно он опирается на систему рейтингов, которую члены сообщества используют для голосования на предмет того, соответствует ли контент ожиданиям сообщества или его правилам. Он позволяет контролировать комментарии или сообщения под руководством опытных старших модераторов.

Не многие сообщества готовы довериться самомодерации. Связано это в основном с юридическими причинами, а также с политикой бренда или компании. По этой причине в организации также может применяться распределенная система модерации, использующая нескольких сотрудников. Также разрабатывается средний балл, согласно которому решают, следует ли разрешить контенту оставаться публичным или все же лучше будет удалить его. Популярным примером такой системы, контролируемой участниками, является Slashdot.

5. Автоматическая модерация

Автоматическая система модерации является ценным оружием в арсенале модератора. Как правило, это встроенный в социальную сеть функционал. Вы просто включаете и настраиваете фильтр в настройках сообщества. В фильтр слов вводится список запрещенных слов. Система либо помечает слово, либо заменяет его другим, либо блокирует или отклоняет сообщение в целом.

6. Отсутствие модерации

Вообще не модерировать сообщество крайне нежелательно. Но есть множество причин, по которым вы можете не регулировать контент, представленный вашими участниками. Без какой-либо формы контроля ваше сообщество быстро превратится в анархию. Атмосфера может стать неприятной для потенциальных новых членов. По сути, без модерации вы не контролируете свое сообщество, что ставит вас под угрозу. Поэтому старайтесь использовать хотя бы минимальную модерацию.

сколько стоят услуги модератора контента у фрилансеров

Услуги редактора-модератора нужны во многих случаях. Например, если у вас недостаточно опыта работы с ведением сайтов или просто нет на это времени. Как правило, профессиональный редактор-администратор работает удаленно. Главной задачей редактора-модератора является использование технологий, повышающих популярность сайта или отдельного раздела, а также проверка статей, иных информационных текстов перед публикацией.

Какие функции выполняет редактор-модератор?

Администрирование площадок подразумевает работу с информацией и коммуникациями. Модератор контента нужен, для того чтобы:

  • Наблюдать за действиями пользователей
  • Регулировать соблюдение правил
  • Найти выход из чрезвычайной ситуации (конфликт между пользователями, технические неполадки)
  • Своевременно реагировать на изменения в поведении пользователей
  • Редактировать контент сайта или отдельные статьи
  • Стимулировать общение (в блогах, социальных сетях или на форумах)

Процесс разработки контента для интернет-страницы должен быть выполнен качественно и профессионально. Однако не менее важно своевременно и корректно публиковать готовые тексты. На нашем портале вы можете найти редактора-модератора контента и заказать его услуги по доступной цене.

Выгода сотрудничества с сайтом Юду

Существует множество преимуществ работы с Юду. Среди них можно выделить следующие:

  • Возможность нанять фрилансера или специалистов компании для долгосрочного сотрудничества
  • Отзывы о работе каждого специалиста находятся в открытом доступе
  • Удобный интерфейс портала
  • Возможность заказать индивидуальный комплекс услуг
  • Гибкий подход к формированию стоимости услуг
  • Каждый исполнитель имеет портфолио
  • Гарантия того, что данные о каждом исполнителе достоверны
  • Большая база высококвалифицированных специалистов
  • Проверенные компании, которые имею надежный статус
  • Договорная цена

Удаленно заказать услуги администратора для модерации контента можно у фрилансера или профильного агентства. Модерация контента любой тематики будет осуществлена качественно, благодаря квалификации специалистов.

Какими навыками обладают модераторы?

Профессионалам необходимо владеть информацией определенного характера. Многие агентства проводят обучение для повышения квалификации специалистов. Чтобы осуществить модерацию грамотно, необходимо обладать определенными навыками:

  • Знаниями в области веб-программирования
  • Коммуникативными навыками
  • Умением быстро реагировать на непредвиденные ситуации
  • Иметь опыт общения в социальных сетях
  • Грамотностью и внимательностью
  • Знанием тематики сайта

Все редакторы-модераторы имеют необходимые навыки и знания. Они профессионально выполнят работу любой сложности. Тем не менее, масштабы аудитории сайта и частота публикаций могут повлиять на стоимость услуг. Все расценки оговариваются лично с исполнителем.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *