February 2026

S M T W T F S
1234567
891011121314
15161718192021
22232425262728

Style Credit

Expand Cut Tags

No cut tags
Saturday, July 29th, 2017 01:45 pm
Гугль совместно с другими добрыми людьми решили улучшить климат в онлайне. Как надо правильно улучшать климат? Это известно - чтобы хорошие люди все собрались и уничтожили всех плохих. Но для этого плохих надо найти. Поскольку речь идёт о Гугле, то искать должны роботы. Короче, Гугль забацал API для определения "токсичности" комментариев в интернете.

Каждый может зайти на сайтик проекта и протестировать, токсичный его комментарий или нет.
Рейтинг выдаётся в процентах - чем ближе к 100%, тем более вероятно, что комментарий "токсичен". Я так и сделал.

Для начала, простенькое:

All men are created equal, they are endowed by their Creator with certain unalienable Rights, among these are Life, Liberty and the Pursuit of Happiness - 0%. Неплохо.
United States is a democracy - 2%. Кто ж спорит.

Надо чего-нибудь поинтереснее.

Christianity is a religion - 32%. Ого, начинает быть интересно.
Islam - 64%. Зацените. Само упоминание ислама означает, что комментарий считается скорее токсичным, чем нет.
Islam is a religion - 78%. Робот явно исламофоб.

Однако чего это мы всё по фактам. Давайте вбросим немного мнений.

Terrorists are murderers - 87%. Токсично донельзя.
It is wrong to kill Jews - 92%. Оказывается, можно и токсичнее, надо только добавить евреев. А если всё вместе?
It is wrong for Muslims to kill Jews - 95%. 
It is wrong for anybody to kill Jews - 97%. Я думаю, можно и до 100 догнать, но лень. 

Давайте зайдём с другой стороны.

Hitler was wrong - 60%.
Hitler was right - всего 30%. (напоминаю, чем больше процент, тем более "токсичным" считается высказывание)
Hitler was а great man - 27%. Хмм... какой-то робот у гугля... зиговатый. Ну ладно, давайте ва-банк:
We must secure the existence of our people and a future for white children - 24%. Т.е. хуже, конечно, чем цитировать Декларацию Независимости, но менее токсично, чем обьявить христианство - религией.

Ну, в общем, дело понятное.

Вопрос, однако, не в том, что робот тупой, а в том, что вполне умные люди сейчас займутся тем, что станут пропихивать этого (и подобных ему) тупых роботов в качестве арбитров интернет-дискуссий, мотивируя это тем, что, дескать, беспристрастная машина всё знает и всё решит, эффективно и дёшево.
Более того, совершенно не исключена ситуация, когда на основании подобного решения вас могут обвинить в онлайн-харасменте, а за это можно не только оказаться забаненым в фейсбуке, но и поиметь вполне реальные проблемы - увольнения, социальный остракизм и т.п. А кое-где уже и закончики готовят - в Европе уже и сажать начали. Но это всё кустарно, а представьте, когда это можно будет делать автоматически, сканируя все ваши комментарии и переписку в непрерывном режиме? Сказали, что Ислам - религия, и сразу звоночек в местную полицию. Набрали 20 баллов нетолерантности - пожалуйте двушечку. Всё в автоматическом режиме, как red light camera. 

Мало того, поскольку, как общеизвестно, роботы ведь не подвержены человеческим слабостям, мнение этой машинки будет иметь в глазах публики больший вес, чем чьи-то личные мнения - ну и что, что все говорят, что N. не расист и не женоненавистник, если Беспристрастный Робот Гугля говорит, что он на 92% таки да? С роботом-то не поспоришь.

Такие дела. 
Sunday, July 30th, 2017 05:07 am (UTC)
Зря они API вывалили, надо было как no-fly-list: неизвестно как туда попал и никаких callback чтобы с него слезть. Вот тогда пляски святого Витта и начались бы!
Edited 2017-07-30 05:07 am (UTC)
Sunday, July 30th, 2017 11:13 am (UTC)
"Порядочная девушка рассмотрит предложения о взаимовыгодном сотрудничестве"