Сломанный код. Внутри Facebook и борьба за раскрытие его вредных секретов - Джефф Хорвиц
- Дата:19.06.2024
- Категория: Деловая литература / Прочая документальная литература
- Название: Сломанный код. Внутри Facebook и борьба за раскрытие его вредных секретов
- Автор: Джефф Хорвиц
- Просмотров:2
- Комментариев:0
Шрифт:
Интервал:
Закладка:
"В Facebook осознание того, что есть противники, играющие в движок, пришло поздно, - говорит Макнелли. Чтобы вытеснить распространителей фальшивых новостей с платформы, Facebook должен был сделать публикацию бредовых историй невыгодной на постоянной основе. И, как и в предыдущей работе Макнелли по борьбе со спамом и рекламным мошенничеством, первым шагом было выяснение того, чем поведение издателей фальшивых новостей отличается от поведения легальных изданий.
Отличительной чертой стало бесстыдство издателей фальшивых новостей в их стремлении привлечь к себе внимание. Наряду с плохой информацией на их страницах неизменно присутствовали clickbait (сенсационные заголовки) и engagement bait (прямые призывы к пользователям взаимодействовать с контентом, тем самым распространяя его дальше).
Facebook уже не одобрял эти методы ажиотажа, считая их немного спамными, но, по правде говоря, ничего особенного с ними не делал. Насколько большой ущерб может нанести вирусная запись "Поделитесь этим, если вы поддерживаете войска"?
Оказалось, что ответ на этот вопрос, когда такой способ повышения вовлеченности используется в операциях по созданию фальшивых новостей, был весьма существенным. Поэтому команда Макнелли начала работать над усилением мер по борьбе с тем, что раньше считалось мелким проступком. Если бы Facebook могла бороться с гиперболическими высказываниями и попытками искусственно подтолкнуть пользователей к участию, возможно, это сделало бы проблему фальшивых новостей более решаемой.
Для того чтобы провести такую репрессию, Facebook необходимо было создать системы для обнаружения плохих постов. Инженеры скормили системе машинного обучения примеры сенсационных постов и постов-приманок, обучив ее отличать такие материалы от более сдержанного контента. Полученный алгоритм предсказывал вероятность того, что пост является приманкой, по шкале от нуля до единицы.
Эта техника, называемая контролируемым обучением, была технически сложной, но концептуально простой. Цель заключалась в том, чтобы надежно распознавать весь плохой контент, который он видел, без ложных срабатываний. Конечно, такое автоматическое совершенство невозможно, и при определении того, как и стоит ли использовать инструмент, который неизбежно приведет к ошибкам, приходилось принимать сложные решения. Всегда существовал компромисс между точностью (как часто классификатор ошибается) и отзывом (какой процент целевого контента он действительно распознает).
То, что Facebook больше ценит - точность или запоминание, - зависело от того, что ее больше беспокоило: ложноотрицательные или ложноположительные результаты. Если Facebook задумывалась об автоматическом удалении фальшивых аккаунтов, она должна была быть более чем на 99 % уверена в том, что пользователь является фальшивым, прежде чем нажимать на курок, даже если такой уровень точности означал, что миллионы фальшивых аккаунтов останутся нетронутыми. В других обстоятельствах гораздо большее значение имеет отзыв: классификатор, выявляющий сообщения с потенциальными суицидальными намерениями, должен быть осторожен и отправлять контент на проверку человеку, даже если вероятность того, что он окажется пригодным к действию, невелика.
Большинство проблем с целостностью оказались между этими двумя крайностями. Facebook не хотел, чтобы люди видели на его платформе язык ненависти, но он не был готов удалять или вручную проверять каждое сообщение, которое классификатор отмечал как потенциально оскорбительное. В этом случае компании приходилось хеджировать свои ставки.
Решением стало понижение рейтинга. Вместо того чтобы удалять или пересматривать сомнительный пост, Facebook мог просто поставить большой палец на шкалу новостной ленты, чтобы он попал к меньшему количеству людей, снизив его оценку в рейтинге, определяющем, что появляется в ленте пользователя. Если штраф был достаточно велик, то сомнительный пост либо пропадал совсем, либо оказывался так далеко в очереди, что пользователь вряд ли до него добирался.
Преимущество понижения рейтинга заключалось в том, что Facebook не нужно было решать, является ли контент приемлемым или нет. Ближайшие друзья пользователя могли по-прежнему видеть сообщение, но для всех остальных пониженный в рейтинге контент просто заменялся следующим в очереди. Это также снижало цену неточности. Поскольку ничего не удалялось, никто не расстраивался. Но Facebook все равно не хотел подавлять контент на зыбких основаниях. Никто не хотел, чтобы платформа служила автоматической полицией нравов, хоронящей любой пост с острыми выражениями или намеком на кожу. Совершенно безопасная платформа была бы совершенно скучной.
Поэтому вопрос о том, как откалибровать смесь автоматических удалений и понижений контента, был одновременно и практическим, и философским. Если вы считали, что плохой контент представляет собой серьезную опасность, и полагали, что Facebook несет ответственность за то, какой контент он рекомендует, вы, скорее всего, предпочли бы относительно жесткий подход. Но если вы рассматривали Facebook как нейтральную платформу, предоставляющую пользователям персонализированный контент, вы сочли бы такой подход излишне строгим, возможно, даже неэтичным. Лента новостей пользователей отражает их личные предпочтения и вкусы, и Facebook должен как можно меньше вмешиваться в их выражение.
" Вред возникает в ситуациях, когда зритель не видит того, что он действительно хотел увидеть", - говорится в одной из внутренних исследовательских записок, подытоживающей позицию минималистов и утверждающей, что изменения в рейтинге, лишающие пользователей доступа к максимально интересному контенту, не позволяют "уважать" их суждения.
Эти дебаты время от времени вспыхивали на Workplace, хотя абсолютное мнение сотрудников с той или иной стороны было редкостью. Максималисты с сайта не считали, что Facebook должна принимать меры против всего потенциально вредного контента, а минималисты не думали, что Facebook должна уважать аппетит белых супремасистов к расистским мемам. Facebook не отвечал за все, что размещали и потребляли его пользователи, но и не был вольницей открытого интернета.
Где бы ни находился Цукерберг и большинство высших руководителей Facebook, сомнений не возникало. Несмотря на попытки некоторых кругов представить Facebook как тирана, помешанного на цензуре, генеральный директор всегда казался более озабоченным тем, чтобы не переусердствовать с модерацией. Facebook должен как можно меньше управлять своей платформой, удаляя только однозначно плохой контент и требуя перевеса доказательств для даже скромного подавления контента. Эти препятствия привели к тому, что вмешательство в добросовестность происходило в основном на периферии - позднее исследование показало, что корректировки ленты новостей, снижающие рейтинг графического насилия, некачественной медицинской информации и дезинформации, изменяли лишь крошечный процент сеансов пользователей, и даже тогда пользователи не сообщали, что их лента стала меньше стоить их времени. В ослабленном виде понижение Sparing Sharing Гомеса-Урибе затронуло
- Улыбка - Рэй Брэдбери - Научная Фантастика
- И грянул гром… (Том 4-й дополнительный) - Вашингтон Ирвинг - Научная Фантастика
- Ориентирование - К. М. Станич - Современные любовные романы
- Аквариум. (Новое издание, исправленное и переработанное) - Виктор Суворов (Резун) - Шпионский детектив
- Warhammer: Битвы в Мире Фэнтези. Омнибус. Том I - Гэв Торп - Фэнтези