Заключительная часть…Ядовитый плод компьютерного кода. Как Facebook управляет нами. Катарсис для Фейсбука начался после использования интернет-платформ для массовой пропаганды и кампаний по дезинформации во время выборов в президенты США в 2016 году.

В течение всего 2017 года напряженность в отношении компании увеличилась, чтобы достичь кульминации весной прошлого года. Затем не только Марк Цукерберг наконец столкнулся с американским Конгрессом, но и компания впервые опубликовала свои стандарты сообщества-внутренний закон, в котором он решает, что разрешено, а что нет.

Эти стандарты не являются алгоритмом и написаны реальными людьми, но они меняются почти так же часто, как и компьютерный код. Направление ясное – все больше и больше вещей запрещены. И когда есть изменения, конечно вы не можете рассчитывать, что все 15 тысяч модераторов контента на платформе, внезапно изменят свое мышление. Таким образом, большая часть сообщений, которые удаляются, загружаются из алгоритмов.

Для загрузки контента используется смесь человеческих усилий и технологий. Но большие инвестиции направлены на развитие искусственного интеллекта. В период с июля по сентябрь 2018 г. например, алгоритмы компании удалили 2, 9 млн. сообщений, которые были против правил платформы. Это почти двойное повышение по сравнению с годом ранее. В общей сложности 52% загруженного контента на платформе за этот период, является плодом решений компьютерного кода – до того, как его увидит любой пользователь.

Таким образом, мечта Марка Цукерберга о том, что в один прекрасный день 99% “плохого” контента на платформе будет сброшено искусственным интеллектом, кажется не только реалистичной, но и относительно близкой в будущем. “Будущее” однако, является ключевым словом, потому что всего несколько недель назад в Крайстчерче, Новая Зеландия, где было убито более 50 человек, транслировалось в прямом эфире на Фейсбуке и алгоритм не смог справиться с загрузкой всех копий материала в течение 24 часов.

Ошибка образца

В последнем крупном изменении правил Фейсбука-запрете на выражение “белого национализма” и “белого сепаратизма”, были удалены тысячи профилей пользователей и страниц. История также имеет чистый угол после того, как менее чем через неделю после принятия изменений, был удален профиль журналиста Мартина Карбовски и всех его управляемых страниц в общей сложности сотни тысяч последователей. То же самое произошло с образовательной платформой Академии Хана.

Только через несколько дней они были возвращены, с неповрежденным количеством симпатий. Фейсбук не комментирует отдельные случаи, но объяснение здесь кажется простым: при вводе новых запрещенных слов в алгоритм, он автоматически удалил все на своем пути, не отличая, что является образовательной платформой, а что публицистикой.

Как Facebook управляет нами
Как Facebook управляет нами

Таким образом, хотя компания создала невидимые по своей сложности алгоритмы, когда дело доходит до введения новых, более масштабных правил относительно того, что разрешено, а что нет в социальной сети, Фейсбук возвращается к самому старому подходу в истории: образец-ошибка. Трудные для понимания и объяснения критерии, такие как “белый национализм” и “белый сепаратизм”, также не помогают и как сама компания призналась в объявлении новостей, граница между национальной гордостью и национализмом достаточно нечеткая и часто непонятная даже для естественного, а что осталось для искусственного интеллекта.

Если бы Фейсбук выбрал путь большей свободы для пользователей, ответ на его проблемы был бы прост, оставьте людей в покое. Тем не менее, тогда потенциальный ущерб от использования и злоупотребления влиянием, предоставляемым социальной сетью, будет каждый раз сеять критику компании и бушевать штормы для ее отдела пиара. Однако выбранный вместо этого подход к большему контролю и загрузке контента не содержит такого простого решения.

Проблема как для пользователей, так и для самой платформы заключается в том, что правила и алгоритмы становятся все более сложными. Направление которое Фейсбук взял на себя, это еще больше правил и еще больше искусственного интеллекта и машинного самообучения, но это не уменьшает недовольство ни одной из двух сторон, и поэтому оно находится в постоянном режиме защитного пиара.

В то время как компания часто подвергается критике, ненависти и осмеянию, для большинства пользователей Фейсбука каждый разразившийся скандал длится всего несколько дней, а затем все возвращаются к совместному использованию и лайкингу, не вкладывая слишком много мысли в философские темы для алгоритмов и людей.

И это естественно, делает социальную сеть еще более мощным инструментом и ставит ребром вопрос – какова логика того, чтобы Фейсбук не максимально использовал продукт, который он создал сам и который потребители используют полностью добровольно?

Единственное объяснение того, что она сама дает задний ход и Марк Цукерберг призывает к регулированию, это страх, что очередная ошибка с миллиардами человеческих судеб может быть слишком большой, чтобы не было возможности для нового образца. Это не совсем апокалиптическая война между людьми и машинами, о которой научно-фантастические книги и фильмы предупреждают нас со времен Айзека Азимова, но антиутопические аналогии не отсутствуют. Проверьте алгоритмы, вероятно определили, какой из них подходит вам и сбросили его в ваш пузырь.


Для размещения Вашей рекламы - Обращайтесь по контактам через форму обратной связи.
www.work-zilla.com


1
Отправить ответ

Пожалуйста, Войдите для комментариев
avatar
1 Комментировать темы
0 Ответы
1 Читают
 
Самый отзывчивый комментарий
Горячая тема комментариев
1 Авторы комментариев
Alex Последние авторы комментариев

Этот сайт использует Akismet для борьбы со спамом. Узнайте как обрабатываются ваши данные комментариев.

  Подписаться  
Новые Старые Больше голосов
Уведомление о