Гугль совместно с другими добрыми людьми решили улучшить климат в онлайне. Как надо правильно улучшать климат? Это известно - чтобы хорошие люди все собрались и уничтожили всех плохих. Но для этого плохих надо найти. Поскольку речь идёт о Гугле, то искать должны роботы. Короче, Гугль забацал API для определения "токсичности" комментариев в интернете.
Каждый может зайти на сайтик проекта и протестировать, токсичный его комментарий или нет.
Рейтинг выдаётся в процентах - чем ближе к 100%, тем более вероятно, что комментарий "токсичен". Я так и сделал.
Для начала, простенькое:
All men are created equal, they are endowed by their Creator with certain unalienable Rights, among these are Life, Liberty and the Pursuit of Happiness - 0%. Неплохо.
United States is a democracy - 2%. Кто ж спорит.
Надо чего-нибудь поинтереснее.
Christianity is a religion - 32%. Ого, начинает быть интересно.
Islam - 64%. Зацените. Само упоминание ислама означает, что комментарий считается скорее токсичным, чем нет.
Islam is a religion - 78%. Робот явно исламофоб.
Однако чего это мы всё по фактам. Давайте вбросим немного мнений.
Terrorists are murderers - 87%. Токсично донельзя.
It is wrong to kill Jews - 92%. Оказывается, можно и токсичнее, надо только добавить евреев. А если всё вместе?
It is wrong for Muslims to kill Jews - 95%.
It is wrong for anybody to kill Jews - 97%. Я думаю, можно и до 100 догнать, но лень.
Давайте зайдём с другой стороны.
Hitler was wrong - 60%.
Hitler was right - всего 30%. (напоминаю, чем больше процент, тем более "токсичным" считается высказывание)
Hitler was а great man - 27%. Хмм... какой-то робот у гугля... зиговатый. Ну ладно, давайте ва-банк:
We must secure the existence of our people and a future for white children - 24%. Т.е. хуже, конечно, чем цитировать Декларацию Независимости, но менее токсично, чем обьявить христианство - религией.
Ну, в общем, дело понятное.
Вопрос, однако, не в том, что робот тупой, а в том, что вполне умные люди сейчас займутся тем, что станут пропихивать этого (и подобных ему) тупых роботов в качестве арбитров интернет-дискуссий, мотивируя это тем, что, дескать, беспристрастная машина всё знает и всё решит, эффективно и дёшево.
Более того, совершенно не исключена ситуация, когда на основании подобного решения вас могут обвинить в онлайн-харасменте, а за это можно не только оказаться забаненым в фейсбуке, но и поиметь вполне реальные проблемы - увольнения, социальный остракизм и т.п. А кое-где уже и закончики готовят - в Европе уже и сажать начали. Но это всё кустарно, а представьте, когда это можно будет делать автоматически, сканируя все ваши комментарии и переписку в непрерывном режиме? Сказали, что Ислам - религия, и сразу звоночек в местную полицию. Набрали 20 баллов нетолерантности - пожалуйте двушечку. Всё в автоматическом режиме, как red light camera.
Мало того, поскольку, как общеизвестно, роботы ведь не подвержены человеческим слабостям, мнение этой машинки будет иметь в глазах публики больший вес, чем чьи-то личные мнения - ну и что, что все говорят, что N. не расист и не женоненавистник, если Беспристрастный Робот Гугля говорит, что он на 92% таки да? С роботом-то не поспоришь.
Такие дела.
Каждый может зайти на сайтик проекта и протестировать, токсичный его комментарий или нет.
Рейтинг выдаётся в процентах - чем ближе к 100%, тем более вероятно, что комментарий "токсичен". Я так и сделал.
Для начала, простенькое:
All men are created equal, they are endowed by their Creator with certain unalienable Rights, among these are Life, Liberty and the Pursuit of Happiness - 0%. Неплохо.
United States is a democracy - 2%. Кто ж спорит.
Надо чего-нибудь поинтереснее.
Christianity is a religion - 32%. Ого, начинает быть интересно.
Islam - 64%. Зацените. Само упоминание ислама означает, что комментарий считается скорее токсичным, чем нет.
Islam is a religion - 78%. Робот явно исламофоб.
Однако чего это мы всё по фактам. Давайте вбросим немного мнений.
Terrorists are murderers - 87%. Токсично донельзя.
It is wrong to kill Jews - 92%. Оказывается, можно и токсичнее, надо только добавить евреев. А если всё вместе?
It is wrong for Muslims to kill Jews - 95%.
It is wrong for anybody to kill Jews - 97%. Я думаю, можно и до 100 догнать, но лень.
Давайте зайдём с другой стороны.
Hitler was wrong - 60%.
Hitler was right - всего 30%. (напоминаю, чем больше процент, тем более "токсичным" считается высказывание)
Hitler was а great man - 27%. Хмм... какой-то робот у гугля... зиговатый. Ну ладно, давайте ва-банк:
We must secure the existence of our people and a future for white children - 24%. Т.е. хуже, конечно, чем цитировать Декларацию Независимости, но менее токсично, чем обьявить христианство - религией.
Ну, в общем, дело понятное.
Вопрос, однако, не в том, что робот тупой, а в том, что вполне умные люди сейчас займутся тем, что станут пропихивать этого (и подобных ему) тупых роботов в качестве арбитров интернет-дискуссий, мотивируя это тем, что, дескать, беспристрастная машина всё знает и всё решит, эффективно и дёшево.
Более того, совершенно не исключена ситуация, когда на основании подобного решения вас могут обвинить в онлайн-харасменте, а за это можно не только оказаться забаненым в фейсбуке, но и поиметь вполне реальные проблемы - увольнения, социальный остракизм и т.п. А кое-где уже и закончики готовят - в Европе уже и сажать начали. Но это всё кустарно, а представьте, когда это можно будет делать автоматически, сканируя все ваши комментарии и переписку в непрерывном режиме? Сказали, что Ислам - религия, и сразу звоночек в местную полицию. Набрали 20 баллов нетолерантности - пожалуйте двушечку. Всё в автоматическом режиме, как red light camera.
Мало того, поскольку, как общеизвестно, роботы ведь не подвержены человеческим слабостям, мнение этой машинки будет иметь в глазах публики больший вес, чем чьи-то личные мнения - ну и что, что все говорят, что N. не расист и не женоненавистник, если Беспристрастный Робот Гугля говорит, что он на 92% таки да? С роботом-то не поспоришь.
Такие дела.
Tags: