Veritas выкатил очередную дозу - на этот раз на арене Фейсбук. Как обычно, ничего, что мы бы уже о них не знали, но теперь с документами.
Да, теперь мы доподлинно знаем, что они разработали и внедрили алгоритмы по классификации текстов по политическим сантиментам (например, отношение к вакцинам), и что эти разработки не имеют никакой связи с противостоянием насилию, защитой от терроризма, противостоянию дезинформации, или чему ещё такому. Это чистый инструмент манипуляции площадкой в целях политической пропаганды, для формирования общественного мнения в нужную сторону, и этот инструмент уже существует и действует - но они собираются применять его ещё шире, по всему миру.
Разумеется, в критерии оценки совершенно не входит правдивость и достоверность информации (да и не может входить - алгоритма, отличающего правду от лжи, нет и быть не может) - наоборот, документы фейсбука ясно указывают, что именно правдивые истории нужно блокировать и подавлять, если они содержат вредную для политической цели информацию.
Пока что механизм используется лишь на небольшом проценте пользователей фейсбука, последний тест был на 1.5% пользователей, но планируется запуск на все 100%, на всех языках, это стандартный запуск продукта в фейсбуке, у них так всё работает. Разумеется, наверняка существуют и иные метрики, не связанные с вакцинацией, которые будут применены - и уже применяются, возможно - для манипуляции информацией. Собственно, после успешного запуска системы на все 100% будет достаточно лишь натренировать алгоритм на нужную базу текстов - о чём именно нельзя говорить - и нажать кнопочку.
Да, теперь мы доподлинно знаем, что они разработали и внедрили алгоритмы по классификации текстов по политическим сантиментам (например, отношение к вакцинам), и что эти разработки не имеют никакой связи с противостоянием насилию, защитой от терроризма, противостоянию дезинформации, или чему ещё такому. Это чистый инструмент манипуляции площадкой в целях политической пропаганды, для формирования общественного мнения в нужную сторону, и этот инструмент уже существует и действует - но они собираются применять его ещё шире, по всему миру.
Разумеется, в критерии оценки совершенно не входит правдивость и достоверность информации (да и не может входить - алгоритма, отличающего правду от лжи, нет и быть не может) - наоборот, документы фейсбука ясно указывают, что именно правдивые истории нужно блокировать и подавлять, если они содержат вредную для политической цели информацию.
Пока что механизм используется лишь на небольшом проценте пользователей фейсбука, последний тест был на 1.5% пользователей, но планируется запуск на все 100%, на всех языках, это стандартный запуск продукта в фейсбуке, у них так всё работает. Разумеется, наверняка существуют и иные метрики, не связанные с вакцинацией, которые будут применены - и уже применяются, возможно - для манипуляции информацией. Собственно, после успешного запуска системы на все 100% будет достаточно лишь натренировать алгоритм на нужную базу текстов - о чём именно нельзя говорить - и нажать кнопочку.
Tags: