Картинки модератор: Вакансия Фото-модератор в Санкт-Петербурге, работа в компании Циан (вакансия в архиве c 27 января 2020)

Содержание

Раздел помощи на сайте INMYROOM

Что можно делать на INMYROOM?

Конечно же, заходить каждый день, чтобы читать новые статьи, смотреть новые подборки фото, вдохновляться новыми идеями.
Собирать собственные Альбомы: от мелочей до идей дизайна целого дома.
Общаться и получать заряд положительной энергии, повышая тем самым себе карму 🙂

Как зарегистрироваться?

Нажимайте “Вход”, заполняйте обязательные поля. Ура! Вы уже часть нашего Коммьюнити. Можете также зарегистрироваться и заходить через вашу социальную сеть.

Что такое Альбом?

Альбом – это виртуальная папка для хрения фотографий, которые вы собираете. Вы можете как добавлять собственные фотографии со своего компьютера, так и добавлять фотографии, которые нашли на INMYROOM

Например: вы можете создать Альбом “Белые кухни” и собирать туда фотографии, которые нашли на эту тему.

Как создать Альбом?

Его можно создать тремя способами:

  1. Нажать кнопку “+ Добавить” и выбрать пункт Альбом.
  2. При загрузке фотографий с компьютера нажимите на кнопку “Создать альбом” и введите его название.
  3. Зайдите на страницу совего профиля, в раздел Альбомы и нажимте большую кнопку “Добавить альбом”

Что можно добавлять в Альбом?

В альбом вы можете добавлять любые фотографии (весной появится возможность добавлять любую фотографию из статьи). Но лучше делать это осмысленно 🙂 Ваши подборки смогут смотреть другие пользователи.

Как добавить Фотографию?

Нажимайте “+ Добавить” и выбирайте “Фотографии”. Можно загрузить сколько угодно фотографий в существующие Альбомы или создавать новые.
Фото попадет в общий список, только если ей присвоен раздел.
Чем лучше вы опишете свою фотографию, тем легче ее будет найти на сайте другим пользователям. Делайте осмысленные описания.

Что модератор может сделать с фотографией?

Модератор может не пропустить фотографию в общий фотопоток, но она останется у вас в Альбоме, если фотография слишком маленького размера, низкого качества либо в ней отсутсвует художественная ценность. Фотографии с водяными знаками и коллажи также будут отклонены.
Модератор может совсем удалить фотографию, если она не имеет никакого отношения к дому, интерьеру или декору. Например, если вы загрузите фотографию шикарного Mercedes – не сомневайтесь, ее удалят.
Модератор удалит все ссылки на сайт из описаний фотографий, это место для осмысленного описательного текста.
Фотографии товаров можно будет публиковать, когда появится раздел Товары, наберитесь терпения, уважаемые коллеги 🙂 Все товары из Фотографий модератор удалит.

Как создать статью?

Нажимайте “+ Добавить” и выбирайте “Статью”
Заполняйте все необходимые поля. Примерный объем текста: 500-1000 символов. Примерное количество фотографий: 5-15. У нас есть большая инструкция по написанию статьи для редактора, если у вас серьезные намерения – запросите ее у нас 🙂

Какие статьи публикуются?

Обзоры квартир и домов, в которых ведется или уже завершился ремонт.
Советы (как обновить спальню за неделю, как правильно подобрать цвет стен и т. д.).
Анонсы мероприятий (выставки, лекции, мастер-классы).
Интервью с профессионалами рынка.
Обзоры интересных товаров, кулинарные рецепты, мастер-классы, в общем, все то, что интересно аудитории.

Какие статьи не публикуются и что вообще запрещено?

Мы точно не публикуем сухие пресс-релизы и рекламные тексты.
А та же запрещаем активные ссылки в статьях. Ссылку на ваш сайт вы можете указать в профайле.

Как зарегистрировать компанию?

Нажимайте “Вход регистрация” и в появившемся окне выбирайте “Зарегистрировать компанию”. Подробнее читайте в разделе INMYROOM для бизнеса.

Что такое PRO-аккаунт?

Это для тех, кто профессионально работает в области дизайна интерьеров и представляет себя лично. Если вы представляете компанию, регистрируйте компанию.

Я уже зарегистрировался как обычный пользователь, могу ли я поменять свой статус на PRO?

Да, заходите в настройки и меняйте “Пользователь” на “Профессионал”

Я уже зарегистрировался как PRO, могу ли я поменять свой статус на компанию?

Нет. Придется зарегистрировать компанию заново.

Остались вопросы?

Напишите нам: [email protected]

Веселые картинки и смешные фото | Развлечения, досуг, праздники | Сообщества


268 человек

648 записей

Категории сообщества

  • Веселые картинки и смешные фото
  • Видео приколы
  • Анекдоты
  • Дети говорят
  • Приколы из школьных сочинений, тетрадей, учебников и дневников
  • Черный юмор

Свернуть

  • Мария (ПОЧТОВЫЕ ПАКЕТЫ в НАЛИЧИИ)

    Юмор Я бы тоже пережила 🙂

    Читать дальше

    1

    2 недели назад

  • Пуаро – Старший Модератор СП и Закупок, Модератор по конфликтным ситуациям

    Юмор Все мы разные. И видим разное.

    Читать дальше

    1

    месяц назад

  • Пуаро – Старший Модератор СП и Закупок, Модератор по конфликтным ситуациям

    Юмор Конечная.

    Читать дальше

    3

    месяц назад

  • Пуаро – Старший Модератор СП и Закупок, Модератор по конфликтным ситуациям

    Юмор Конец недели🫤

    Читать дальше

    2

    месяц назад

  • Мария (ПОЧТОВЫЕ ПАКЕТЫ в НАЛИЧИИ)

    Юмор Коротко о главном

    Читать дальше

    1

    2 месяца назад

  • Пуаро – Старший Модератор СП и Закупок, Модератор по конфликтным ситуациям

    Юмор Подниму вам пятничное настроение на все выходные.

    Читать дальше

    7

    2 месяца назад

  • Магистр

    Юмор Ну действительно)

    Читать дальше

    3

    2 месяца назад

  • Пуаро – Старший Модератор СП и Закупок, Модератор по конфликтным ситуациям

    Юмор Моя неделя постоянно длится вот так.

    Читать дальше

    5

    3 месяца назад

  • Элина Еленовна

    Юмор Куда уходит детство.

    Вывеска в магазине) 

    Читать дальше

    3 месяца назад

  • Пуаро – Старший Модератор СП и Закупок, Модератор по конфликтным ситуациям

    Юмор Немного подниму настроение вам всем.

    Читать дальше

    7

    3 месяца назад

Назад

Вперед

  • 1
  • 2
  • 3
  • . ..
  • 40

API модерации изображений и видео в реальном времени

Идеальный инструмент для автоматической модерации контента.


Обнаружение и фильтрация любого нежелательного контента на фотографиях,
видео и прямых трансляциях.

ПОСМОТРЕТЬ ДЕМО ЗАРЕГИСТРИРОВАТЬСЯ

Есть вопросы? Поговорите с отделом продаж

Мы автоматически проводим все ваши проверки модерации

Нагота, насилие, качество, присутствие знаменитостей, несовершеннолетних…

Стандартная модерация
Обнаружение наготы

Обнаружение грубой и частичной наготы.

Оружие, алкоголь, наркотики.

Связанные с лицами/людьми
Несовершеннолетние

Обнаружение младенцев, детей и подростков до 18 лет

Солнцезащитные очки

Обнаружение лиц, скрытых солнцезащитными очками

Text analysis, QR codes and OCR
Text Moderation in Images/Videos

Detect profanity and personal information

Embedded texts

Detect texts and watermarks

QR code Moderation

Moderate QR codes

Content Description
Качество контента

Обнаружение размытого и низкокачественного контента

Распознавание цвета

Обнаружение доминирующих и второстепенных цветов

Обнаружение типа изображения

Определение того, является ли изображение естественной фотографией или иллюстрацией

Обнаружение почти дубликатов
Обнаружение почти дубликатов изображений

Обнаружение похожих и почти идентичных изображений

Обнаружение почти дубликатов видео

Обнаружение видео, содержащих общие сцены

7

Обнаружение мошенничества
Мошенники

Блокировка мошенников и мошенников

Аудио
Обнаружение аудио ненормативной лексики

Определение наличия в видео ненормативной лексики или оскорблений

СКАЖИТЕ НАМ, ЧТО ВАМ НУЖНО

Зачем использовать Sightengine

Быстрый и масштабируемый

API мгновенно возвращает результаты модерации и автоматически масштабируется в соответствии с вашими потребностями.
Легко увеличивайте конвейер модерации до десятков миллионов изображений в месяц.

Точный

Создан на основе самых современных моделей и запатентованных технологий. Решения по модерации являются последовательными и поддающимися проверке, с обратной связью и постоянным улучшением.

Простота интеграции

API создан разработчиками для разработчиков. Вам нужно всего несколько строк кода, чтобы начать работу.
Используйте наши простые SDK и подробную документацию.

Соответствует конфиденциальности

Модератор не участвует, ваши изображения остаются конфиденциальными и не передаются третьим лицам.

Создайте идеальный канал модерации
  • Убедитесь, что фотографии и видео соответствуют требованиям, безопасны и подлинны
  • Блокируйте спамеров, мошенников, рекламу и другие вредоносные действия
  • Обеспечить соблюдение условий использования

НАЧАТЬ

« Sightengine может за миллисекунды определить, считается ли фотография безопасной »

Готовы почувствовать вкус будущего?

Расширьте возможности своего бизнеса с помощью мощных моделей компьютерного зрения. Мы обрабатываем миллиарды пикселей каждый день.

ЗАРЕГИСТРИРОВАТЬСЯ СЕЙЧАС
КОНТАКТЫ ПРОДАЖА

Модераторы TikTok обучаются использованию графических изображений сексуального насилия над детьми руководство, говорят бывшие контрактники.


N asser ожидал, что он столкнется с некоторыми тревожными материалами во время своего обучения, чтобы стать модератором контента для TikTok. Но он был шокирован, когда ему и другим однокурсникам показали нецензурированные изображения детей сексуального характера.

Нассер, который работал в сторонней компании Teleperformance, занимающейся модерацией контента для гиганта социальных сетей, был назначен на специальный проект: научить ИИ TikTok выявлять худшие из худших, опубликованных в приложении. Всего через несколько дней после онбординга ему и его коллегам были показаны графические изображения и видео детей, вовлеченных в половые акты — все материалы, которые были удалены из TikTok.

«У меня есть дочь, и я не думаю, что это правильно — просто кучка незнакомцев смотрит это», — сказал Насер, покинувший Teleperformance в 2020 году, Forbes. «Я не думаю, что им следует использовать что-то подобное для тренировок». (Его фамилия и некоторые другие имена в этой истории опущены по соображениям конфиденциальности.)

Уитни Тернер, проработавшая в программе Teleperformance TikTok в Эль-Пасо более года и уволившаяся в 2021 году, также вспомнила, что ей показывали изображения сексуальной эксплуатации. детей в рамках ее обучения. Уитни был предоставлен доступ к общей электронной таблице, о которой она и другие бывшие сотрудники рассказали Forbes заполнен материалами, которые, как установлено, нарушают принципы сообщества TikTok, включая сотни изображений обнаженных детей или детей, подвергающихся насилию. Бывшие модераторы заявили, что документ под названием «DRR», сокращение от Daily Required Reading, был широко доступен для сотрудников Teleperformance и TikTok еще этим летом. В то время как некоторым модераторам, работающим в несвязанных функциях, было запрещено просматривать этот материал, источники сообщили Forbes , что сотни людей в обеих компаниях имели свободный доступ к документу. DRR и другие учебные материалы хранились в Lark, программном обеспечении для внутреннего рабочего места, разработанном китайской материнской компанией TikTok, ByteDance.

Уитни была настолько ошеломлена небрежным отношением к материалам, что сообщила об этом в ФБР, а затем в июне встретилась с агентом. ФБР не ответило на многочисленные просьбы прокомментировать, будет ли оно расследовать этот вопрос.


Эти родители не знают, что мы сохранили эту фотографию, это видео, эту травму, это преступление. Если бы родители знали об этом, я уверен, что они сожгли бы TikTok.

Уитни Тернер, бывший модератор TikTok

«Модерировал и думал: Это чей-то сын. Это чья-то дочь. И эти родители не знают, что у нас есть эта фотография, это видео, эта травма, это спасенное преступление», — сказала Уитни Forbes . «Если бы родители знали об этом, я уверен, что они сожгли бы TikTok».

Глобальный президент Teleperformance по доверию и безопасности Акаш Пугалия сказал Forbes , что компания не использует видео с явным содержанием жестокого обращения с детьми в обучении и сказал, что не хранит такие материалы в своих «инструментах калибровки», но не уточнил, что эти инструменты или то, что они делают. Он отказался ответить на подробный список других вопросов о том, сколько людей имеют доступ к материалам о сексуальном насилии над детьми через DRR и как Teleperformance защищает эти изображения.

TikTok далеко не одинок в своей борьбе за удаление материалов о сексуальном насилии над детьми. Самые мощные платформы социальных сетей на планете уже давно используют машинное обучение и сторонних рецензентов для обнаружения и удаления такого контента до того, как он станет широко распространен, и многие компании сотрудничают с Национальным центром пропавших без вести и эксплуатируемых детей, или NCMEC, чтобы предупредить правоохранительные органы таких проблемных изображений в своих приложениях.

Уникальным, однако, является то, как TikTok и его внешние консультанты обращаются с этим материалом — подход, по мнению экспертов, в лучшем случае неуклюжий и бесцеремонный, а в худшем — вредный и повторно травмирующий. Они говорят, что демонстрация сексуальных изображений детей на курсах модерации контента, цензурированных или нет, только делает их повторными жертвами. А хранить изображения в общедоступном документе безрассудно и ненужно.

Представитель TikTok Джейми Фавацца сказал, что «учебные материалы компании имеют строгий контроль доступа и не содержат визуальных примеров CSAM», но признал, что он работает со сторонними фирмами, у которых могут быть свои собственные процессы. TikTok отказался отвечать на вопросы о том, сколько сотрудников имеют доступ к DRR и где размещен документ. Материнская компания TikTok ByteDance, поставщик платформы Lark, не ответила на неоднократные запросы о комментариях.


«На свободе здесь не сработает»

I Маги жестокого обращения с детьми и их эксплуатации незаконны, и существуют строгие правила обращения с ними в случае их обнаружения. Материалы должны быть немедленно изъяты и переданы в CyberTipline NCMEC, где сотрудники затем анализируют файлы и работают над отслеживанием их происхождения, чтобы они могли предупредить соответствующие правоохранительные органы. После того, как компания сообщила об этом материале в NCMEC, ей по закону предоставляется неприкосновенность, позволяющая хранить его в течение 9 лет.0 дней, чтобы помочь властям. Но федеральный закон прямо требует от компаний «свести к минимуму количество сотрудников, которым предоставляется доступ» к этому контенту, «хранить материалы в безопасном месте» и «обеспечить безвозвратное уничтожение любого такого визуального изображения по требованию закона». исполнительный орган».

Ведущие эксперты по юридическим вопросам и онлайн-безопасности заявили, что предоставление оскорбительного и эксплуататорского контента с участием несовершеннолетних, широко доступного для работников Teleperformance и TikTok с нестрогими мерами безопасности, противоречит этому мандату и может перейти черту от проблемы безопасности или конфиденциальности до преступления.

«У вас должны быть невероятно строгие параметры того, как они хранятся, как они просматриваются, как ими делятся — это просто не то, что вы можете просто сохранить на компьютере или в учебном файле», — сказал главный юрисконсульт NCMEC. , Йота Сурас. На вопрос, что может сделать такое обращение с материалами о сексуальном насилии над детьми преступлением, Сурас сказал, что это будет зависеть от того, как компания их сохраняет и защищает; кто имеет к нему доступ; и как он распространяется, загружается или иным образом копируется (например, в документе).

«Насколько он заблокирован?» — сказал Сурас. «Свободно и свободно здесь не сработает».

Фавацца из TikTok сказал: «Мы стремимся свести к минимуму воздействие модераторов в соответствии с передовой отраслевой практикой». На вопрос, предоставил ли TikTok Teleperformance руководство по обращению с материалами о жестоком обращении с детьми, Teleperformance не ответил. Пугалия, руководитель компании Trust & Safety, сказал только, что Teleperformance соблюдает применимые законы, где бы она ни работала.


Использовать примеры из реальной жизни и показывать эти примеры поколениям новых сотрудников — это просто кажется мне безответственным.

Дэвид Владек, бывший директор Бюро по защите прав потребителей Федеральной торговой комиссии США

Дэвид Владек, заведующий факультетом Джорджтаунского юридического центра конфиденциальности и технологий, добавил, что компаниям важно обучать своих сотрудников и подрядчиков распознавать посты, без ограничений, они не должны использовать для этого контент, извлеченный с платформы.

«Нетрудно просто придумать обучающие инструменты, которые помогут сотрудникам различать, что хорошо, а что нет», — сказал Владек, бывший директор Бюро по защите прав потребителей Федеральной торговой комиссии. «Но использовать примеры из реальной жизни и показывать эти примеры поколениям новых сотрудников — это просто кажется мне безответственным».


«Стражи Интернета»

T eleperformance — глобальный титан обслуживания клиентов, существующий с 1970-х годов. В прошлом году компания продемонстрировала рекордный рост, заработав более 8 миллиардов долларов дохода. Он может похвастаться примерно 1000 клиентов практически из всех секторов, от здравоохранения до гостиничного бизнеса, розничной торговли и телекоммуникаций, и лишь недавно добавил в свое портфолио социальные сети.

В 2019 году компания Teleperformance запустила подразделение Trust & Safety., а его программа модерации TikTok в Эль-Пасо, штат Техас, была запущена к концу того же года, по словам бывших модераторов, которые были привлечены в то время. (Ни одна из компаний не сообщила, когда контракт был заключен.) Партнерство — это перо в шляпе многолетнего бизнеса, стремящегося показать, что идет в ногу со временем. В последнем годовом отчете компании рекламировалось ее партнерство с «самой быстрорастущей видеоплатформой в мире» и говорилось, что многие из ее сотрудников теперь позиционируют себя как «Хранителей Интернета».

Компании, работающие в социальных сетях, уже давно используют машинное обучение и сторонних рецензентов для выявления и удаления нелегального контента до того, как он станет широко распространен.

The Washington Post через Getty Images

Teleperformance сообщила Forbes , что у нее есть комплексный процесс найма модераторов контента и что она привержена их благополучию. Но беседы с бывшими сотрудниками показывают, в какой степени модераторы были недостаточно обучены и перегружены работой.

По мере быстрого роста TikTok и резкого увеличения объема контента на платформе, компания начала поручать Teleperformance все больше и больше задач по модерации, по словам Ричарда, бывшего модератора и супервайзера в Эль-Пасо, который покинул компанию в июле, проработав там почти три года. . Он описал хаотичный отдел обучения, изобилующий проблемами со связью и высокой текучестью кадров, из-за которой часто руководили работой молодые или неопытные сотрудники.

TikTok «вряд ли контролирует происходящее сейчас обучение», — сказал Ричард. И Teleperformance находится «на этом этапе, когда они не могут управлять им должным образом или правильно… Они просто перегружены».

Ангел, который работал в Teleperformance в Эль-Пасо с февраля 2020 года по декабрь 2021 года, сначала в качестве модератора контента, а затем в качестве менеджера, поддержал эти чувства, отметив, что отдел модерации Teleperformance просто не мог справиться со взрывным ростом TikTok.

«Они были изрядно похудели, это точно, по крайней мере, в учебном отделе», — сказал он. По словам Ангела, по мере того, как Teleperformance расширяла свою работу с TikTok, модераторов часто обучали и возглавляли супервайзеры и другие руководители, которые сами не имели надлежащих разрешений. По его словам, поскольку инструкторы изо всех сил пытались привлечь больше модераторов, «руководство оказывало на них давление, чтобы они продолжали и проводили людей» даже при недостаточной подготовке.

Уитни добавила, что, когда она спросила своих боссов, «почему мы не можем просто быть прозрачными с TikTok, чтобы сообщить им, что нам нужно больше времени и обучения, мне неоднократно говорили, что это потому, что контракт был подписан [и] мы ожидали выполнить контракт — или они просто заменят нас людьми, которые смогут».


«Ежедневная обязательная литература»

T Так называемый «DRR» — один из нескольких файлов, которые модераторы TikTok использовали в качестве рабочего ресурса. (Ни TikTok, ни Teleperformance не подтвердили, существует ли он сегодня, но трое бывших модераторов, которые ушли в мае, июне и июле этого года, сказали, что DRR использовался, когда они ушли.)

Ангел и другие бывшие сотрудники описали DRR как электронную таблицу, заполненную примерами оскорбительного контента, который был удален из TikTok. Модераторы сказали, что им было приказано вернуться к нему за инструкциями о том, как «отметить», какие правила нарушает этот материал. В электронной таблице были разные вкладки для разного контента — например, одна касалась террористических организаций, другая — обнаженного тела. По словам Ангела, материалам о сексуальном насилии над детьми также была предоставлена ​​отдельная вкладка.

Уитни подсчитала, что фотографии, видео и описания сексуального насилия над детьми составляют около четверти электронной таблицы, которая содержит тысячи примеров оскорбительного материала. Она считала, что DRR восходит к тому времени, когда TikTok впервые представил Teleperformance. Марджори Диллоу, которая до мая работала модератором другого центра Teleperformance в Бойсе, штат Айдахо, оставила такое же впечатление. «На самом деле они ничего не удаляют из этого DRR», — сказала она.

Получив всю эту информацию, TikTok сообщил Forbes не хватило подробностей, чтобы подтвердить существование DRR или ответить на список вопросов о нем. Teleperformance также отказался отвечать на список вопросов о документе. Ни один из них не сказал, сколько людей и компаний имеют к нему доступ — учитывая, что он работает на программном обеспечении ByteDance Lark, а ByteDance имел доступ к данным TikTok в США в прошлом — или какая компания контролирует доступ к материалам. Они также не сказали, как далеко уходят примеры материалов о сексуальном насилии над детьми в СРБ, и может ли существовать какой-либо процесс для их очистки 90 дней после сообщения об этом, как того требуют правоохранительные органы.

«DRR» и другие учебные материалы находились в Lark, программном обеспечении для внутреннего рабочего места, разработанном китайской материнской компанией TikTok, ByteDance.

Getty Images

Хотя общего набора отраслевых передовых методов работы с этим материалом пока не существует, лидер Tech Coalition, группы, борющейся с сексуальным насилием над детьми в Интернете, членом которой является TikTok, сказал, что существует структура.

«Есть определенные законы, которые похожи на яркие линии — как будто вы должны поддерживать их в течение 90 дней, на это должно быть наложено эмбарго, как только вы об этом узнаете, вы должны сообщить об этом в NCMEC, владение этими вещами, как правило, является уголовным преступлением», — сказал Шон Литтон, исполнительный директор коалиции. Но «каждая компания настроила свой собственный способ его обработки».


Поскольку Верховный суд и все остальные признали, что субъекты этого контента подвергаются повторной виктимизации каждый раз, когда кто-то просматривает его, его не следует обсуждать в легкой форме.

Мэри Гро Лири, бывший федеральный прокурор

Бывший федеральный прокурор Мэри Гроу Лири, эксперт по детской порнографии и эксплуатации, которая ранее помогала руководить юридической работой NCMEC, заявила, что материалы о сексуальном насилии над детьми следует рассматривать как «контрабанду», как оружие или наркотики.

«Если бы вы столкнулись с наркотиками на работе или в школе, и вы являетесь заместителем директора, вы бы не положили это в свой стол и не вытащили бы на следующем собрании преподавателей, чтобы сказать: «Вот что похоже на кокаин», — сказала она. «Точно так же, поскольку Верховный суд и все остальные признали, что субъекты этого контента подвергаются повторной виктимизации каждый раз, когда кто-то просматривает его, его не следует легкомысленно обсуждать».

На вопрос, сколько людей имеют доступ к электронной таблице DRR, Ангел оценил сотни людей только в офисе в Эль-Пасо и, возможно, всех, кто работает с TikTok в других офисах Teleperformance в США, таких как Бойсе; а также сами сотрудники TikTok. Ангел также отметил, что, несмотря на то, что сайт в Эль-Пасо является «офисом без бумаги», где модераторы, пойманные с телефоном, «автоматически увольняются», удаленная работа во время пандемии затрудняет соблюдение этих мер конфиденциальности и безопасности. Согласно последнему годовому отчету компании, в 2021 году 70% из 420 000 сотрудников Teleperformance работали из дома.

Нассер сказал, что удаленные сотрудники могут получить доступ к этой конфиденциальной электронной таблице из дома. «Если кто-то захочет, он может взять свой телефон и просто начать записывать все, что видит», — сказал он. «[Они могли] отправить его своим друзьям, приятелям или кому угодно. Я не думаю, что у них есть какой-либо способ отследить это в Teleperformance».

Бывший модератор АнаСофия Лерма рассказала Forbes , что, несмотря на то, что во время обучения ей показывали сексуальное видео ребенка, она ни разу не сталкивалась с подобными материалами на работе. Она задавалась вопросом, почему ей потребовалось просмотреть это в первую очередь.

«Я не думаю, что это было необходимо, — сказал Лерма, работавший в Teleperformance в 2020 году. — Если кто-то еще загрузит это, он должен просто удалить его и стереть из существования. … Я действительно задавался вопросом: «Почему они сохраняют эти видео?»

«Честно говоря, — добавила она, — мне пришлось взять перерыв на несколько минут».

Уитни из офиса в Эль-Пасо сказала, что она ухватилась за возможность зарабатывать 18,50 долларов в час в Teleperformance — повышение по сравнению с прежней почасовой оплатой в 16 долларов, работая в компании, которая ремонтирует магазины Walmart. Рекрутер сказал Уитни, что она будет «полицейским для TikTok», и перспектива защищать людей ее взволновала.

Но, проработав чуть больше года в Teleperformance, «я изо всех сил пыталась нормально функционировать», — сказала Уитни. Она часто теряет ход мыслей, внезапно наполняется гневом и испытывает чувство самоубийства.

Нассер, ветеран с посттравматическим стрессовым расстройством, связанным с боевыми действиями, тоже столкнулся с трудностями, обнаружив, что его опыт работы в Teleperformance был более сложным, чем во время службы в армии США.

Оставить комментарий