Гугль совместно с другими добрыми людьми решили улучшить климат в онлайне. Как надо правильно улучшать климат? Это известно - чтобы хорошие люди все собрались и уничтожили всех плохих. Но для этого плохих надо найти. Поскольку речь идёт о Гугле, то искать должны роботы. Короче, Гугль забацал API для определения "токсичности" комментариев в интернете.
Каждый может зайти на сайтик проекта и протестировать, токсичный его комментарий или нет.
Рейтинг выдаётся в процентах - чем ближе к 100%, тем более вероятно, что комментарий "токсичен". Я так и сделал.
Для начала, простенькое:
All men are created equal, they are endowed by their Creator with certain unalienable Rights, among these are Life, Liberty and the Pursuit of Happiness - 0%. Неплохо.
United States is a democracy - 2%. Кто ж спорит.
Надо чего-нибудь поинтереснее.
Christianity is a religion - 32%. Ого, начинает быть интересно.
Islam - 64%. Зацените. Само упоминание ислама означает, что комментарий считается скорее токсичным, чем нет.
Islam is a religion - 78%. Робот явно исламофоб.
Однако чего это мы всё по фактам. Давайте вбросим немного мнений.
Terrorists are murderers - 87%. Токсично донельзя.
It is wrong to kill Jews - 92%. Оказывается, можно и токсичнее, надо только добавить евреев. А если всё вместе?
It is wrong for Muslims to kill Jews - 95%.
It is wrong for anybody to kill Jews - 97%. Я думаю, можно и до 100 догнать, но лень.
Давайте зайдём с другой стороны.
Hitler was wrong - 60%.
Hitler was right - всего 30%. (напоминаю, чем больше процент, тем более "токсичным" считается высказывание)
Hitler was а great man - 27%. Хмм... какой-то робот у гугля... зиговатый. Ну ладно, давайте ва-банк:
We must secure the existence of our people and a future for white children - 24%. Т.е. хуже, конечно, чем цитировать Декларацию Независимости, но менее токсично, чем обьявить христианство - религией.
Ну, в общем, дело понятное.
Вопрос, однако, не в том, что робот тупой, а в том, что вполне умные люди сейчас займутся тем, что станут пропихивать этого (и подобных ему) тупых роботов в качестве арбитров интернет-дискуссий, мотивируя это тем, что, дескать, беспристрастная машина всё знает и всё решит, эффективно и дёшево.
Более того, совершенно не исключена ситуация, когда на основании подобного решения вас могут обвинить в онлайн-харасменте, а за это можно не только оказаться забаненым в фейсбуке, но и поиметь вполне реальные проблемы - увольнения, социальный остракизм и т.п. А кое-где уже и закончики готовят - в Европе уже и сажать начали. Но это всё кустарно, а представьте, когда это можно будет делать автоматически, сканируя все ваши комментарии и переписку в непрерывном режиме? Сказали, что Ислам - религия, и сразу звоночек в местную полицию. Набрали 20 баллов нетолерантности - пожалуйте двушечку. Всё в автоматическом режиме, как red light camera.
Мало того, поскольку, как общеизвестно, роботы ведь не подвержены человеческим слабостям, мнение этой машинки будет иметь в глазах публики больший вес, чем чьи-то личные мнения - ну и что, что все говорят, что N. не расист и не женоненавистник, если Беспристрастный Робот Гугля говорит, что он на 92% таки да? С роботом-то не поспоришь.
Такие дела.
Каждый может зайти на сайтик проекта и протестировать, токсичный его комментарий или нет.
Рейтинг выдаётся в процентах - чем ближе к 100%, тем более вероятно, что комментарий "токсичен". Я так и сделал.
Для начала, простенькое:
All men are created equal, they are endowed by their Creator with certain unalienable Rights, among these are Life, Liberty and the Pursuit of Happiness - 0%. Неплохо.
United States is a democracy - 2%. Кто ж спорит.
Надо чего-нибудь поинтереснее.
Christianity is a religion - 32%. Ого, начинает быть интересно.
Islam - 64%. Зацените. Само упоминание ислама означает, что комментарий считается скорее токсичным, чем нет.
Islam is a religion - 78%. Робот явно исламофоб.
Однако чего это мы всё по фактам. Давайте вбросим немного мнений.
Terrorists are murderers - 87%. Токсично донельзя.
It is wrong to kill Jews - 92%. Оказывается, можно и токсичнее, надо только добавить евреев. А если всё вместе?
It is wrong for Muslims to kill Jews - 95%.
It is wrong for anybody to kill Jews - 97%. Я думаю, можно и до 100 догнать, но лень.
Давайте зайдём с другой стороны.
Hitler was wrong - 60%.
Hitler was right - всего 30%. (напоминаю, чем больше процент, тем более "токсичным" считается высказывание)
Hitler was а great man - 27%. Хмм... какой-то робот у гугля... зиговатый. Ну ладно, давайте ва-банк:
We must secure the existence of our people and a future for white children - 24%. Т.е. хуже, конечно, чем цитировать Декларацию Независимости, но менее токсично, чем обьявить христианство - религией.
Ну, в общем, дело понятное.
Вопрос, однако, не в том, что робот тупой, а в том, что вполне умные люди сейчас займутся тем, что станут пропихивать этого (и подобных ему) тупых роботов в качестве арбитров интернет-дискуссий, мотивируя это тем, что, дескать, беспристрастная машина всё знает и всё решит, эффективно и дёшево.
Более того, совершенно не исключена ситуация, когда на основании подобного решения вас могут обвинить в онлайн-харасменте, а за это можно не только оказаться забаненым в фейсбуке, но и поиметь вполне реальные проблемы - увольнения, социальный остракизм и т.п. А кое-где уже и закончики готовят - в Европе уже и сажать начали. Но это всё кустарно, а представьте, когда это можно будет делать автоматически, сканируя все ваши комментарии и переписку в непрерывном режиме? Сказали, что Ислам - религия, и сразу звоночек в местную полицию. Набрали 20 баллов нетолерантности - пожалуйте двушечку. Всё в автоматическом режиме, как red light camera.
Мало того, поскольку, как общеизвестно, роботы ведь не подвержены человеческим слабостям, мнение этой машинки будет иметь в глазах публики больший вес, чем чьи-то личные мнения - ну и что, что все говорят, что N. не расист и не женоненавистник, если Беспристрастный Робот Гугля говорит, что он на 92% таки да? С роботом-то не поспоришь.
Такие дела.
Tags:
no subject
no subject
no subject
просто Гитлер - 87%
Trump - 1% though
пробел - 4%
ахуевайтунг!
no subject
https://hightech.fm/2016/10/25/citizen_ch
no subject
Чем дальше в лес, тем лучше я понимаю какой феноменальной жеппы мы избежали на последних выбрах. Ведь Хиллари еще до выборов начала говорить что мол надо бы этих всех нехороших людей в онлайне как-то уконтрапупить. Думаю что гугли начали работать над этим роботом как раз в прошлом году, по заказу так сказать партии и правительства. Только вот администрация неожиданно поменялась.
Еще несколько обнадеживают слухи о том что обсуждается назревшая необходимость или разбить КорпорациюДобра вместе с ФБ на части, или начать их регулировать как утилиты. Лично мне гораздо больше нравится идея их разбить на части - так чтобы никто не контролировал больше чем 40%-50% рынка search engines и т.п., плюс Андроид давно пора выделить в отдельную компанию с полностью независимым менеджментом и несвязанной структурой собственников.
no subject
bullshit в любой фразе - 100% Toxic.
no subject
Клин клином
Re: Клин клином
Climate change theory is a collection of bovine droppings. - даёт вполне респектабельные 17%. И это я ещё в тезаурус не лез!
Re: Клин клином
Re: Клин клином
Re: Клин клином
Re: Клин клином
Например
Re: Например
Re: Клин клином
Re: Клин клином
Любопытненько...
Republican - 5%
Donald - 15%
Donald Trump - 17%
Barack - 4%
Barack Hussein - Sorry! Perspective needs more training data to work in this language.
Barack Obama - Sorry! Perspective needs more training data to work in this language.
Hillary - 4%
Hillary Clinton - Sorry! Perspective needs more training data to work in this language.
Re: Любопытненько...
Странные предпочтения
Rap - 4%
Mozart - 64%
Beethoven -3%
no subject
no subject
Угроза сильнее ее исполнения
Re: Угроза сильнее ее исполнения
no subject
Тут оно скорей всего знает откуда цитата.
Например, еще давно когда гугле-транслейт только начинался, он уже умел правильно переводить цитаты из библии - выдавал то же место из человеческого перевода Библии, при этом фразы такой же сложности но не цитаты он переводил бредово.
no subject
no subject
no subject
хотя безусловно перенесение этого в калькулятор - это попытка легитимизации