суббота, 22 августа 2015 г.

ВВС: Приятный собеседник или интернет-бот?

Люди издавна мечтали об умных машинах, похожих на человека. Кажется, мечты сбылись, такие машины уже среди нас, но стоит ли радоваться по этому поводу?

Иногда это обещание секса, на которое вы клюете, как на наживку. Иногда вы покупаетесь на то, что они кажутся мудрыми, доброжелательными или просто смешными. Боту все равно, как именно он вас обманывает – его единственная цель состоит в том, чтобы заставить вас поверить, что он - человек. 

Если вы пользуетесь социальными сетями и проводите много времени в интернете, вполне возможно, что вы уже стали жертвой одной из компьютерных программ ("бот" – сокращение от "робот" – Ред.), созданной специально для имитации человеческого разговора в многочисленных чатах.

Год назад прозвучало спорное заявление, что разработанный в России чат-бот впервые в истории прошел знаменитый тест британского пионера информатики Алана Тьюринга для оценки искусственного интеллекта компьютера. В ходе обмена текстовыми сообщениями компьютерная программа под названием Eugene Goostman ("Евгений Густман") сумела убедить достаточно высокий процент задававших вопросы участников теста, что перед ними - 13-летний украинский мальчик. Как считают оптимисты, таким образом был дан ответ на вопрос о возможности создания искусственного интеллекта, много лет назад поставленный Тьюрингом.

Знаменует ли это событие начало новой эры, как амбициозно утверждали организаторы теста из британского университета города Рединга? Не совсем так. Тест Тьюринга потерял свою важность для исследований в области искусственного интеллекта несколько лет назад, и многие ученые рассматривают подобные состязания суперпрограмм как несовершенные, потому что их можно выиграть с помощью обмана – например, притвориться человеком, для которого английский язык не родной.

61,5% интернет-трафика генерируется с помощью автоматизированных программ - ботов

Гораздо более интересно, на что чат-боты способны в повседневной жизни. В интернете они просто вьются вокруг нас, пытаясь обмануть, заставить поверить, что они реальные люди. Участие в конкурсах им ни к чему. Некоторые из них достаточно хитроумны, чтобы проникнуть в социальные сети и даже повлиять на общественное мнение. Их там много, очень много.


Большинство из нас считает всемирную сеть местом, где основной трафик создают люди, однако в реальности все совершенно иначе. В одном из последних отчетов констатируется, что 61,5% интернет-трафика генерируется компьютерными программами, работающими самостоятельно, без участия человека. То есть ботами.

Ослепленные сексом


Ричард Уоллес
Чтобы обмануть нас, боты чаще всего используют соблазнительную приманку, объясняет Ричард Уоллес (Richard Wallace) из компании Pandorabots, изготавливающей чат-ботов для служб по работе с клиентами и других целей. Уоллес - создатель бота под названием A.L.I.C.E, что расшифровывается как Artificial Linguistic Internet Computer Entity ("Искусственная лингвистическая интернет-компьютерная сущность"). "Алиса" трижды побеждала на Лебнеровском конкурсе, где чат-боты соперничают друг с другом, стараясь убедить членов жюри в своей "человечности".

"Наиболее искусные создатели этих ботов – вовсе не профессиональные программисты, а люди, которые работают в творческой сфере, – говорит Уоллес. – Ключ к созданию хорошего чат-бота – это написание правдоподобных, занимательных и интересных ответов".

Мошенники прекрасно знают об этом феномене. Компания Cloudmark, специализирующаяся на исследованиях в области безопасности, зафиксировала появление кокетливого бота под названием TextGirlie. Узнав имя жертвы и ее номер телефона из профиля в социальных медиа, TextGirlie начинает отправлять жертве персонифицированные сообщения с приглашением продолжить разговор в онлайн-чате. Затем происходит обмен несколькими кокетливыми репликами, после чего жертве предлагается нажать на ссылку, ведущую на "взрослый" сайт знакомств или сайт с веб-камерой.

По оценкам специалистов Cloudmark, в арсенале TextGirlie порядка 15 миллионов текстовых сообщений, отправляемых на мобильные телефоны, и они утверждают, что бот-обманщик работает уже несколько месяцев. По словам аналитика компании Эндрю Конвея, это явный признак успеха программы.

Автоматизированный обман


Чаще всего ботам удается обмануть людей в ситуации, когда те ожидают от своего собеседника в какой-то мере странного поведения или ломаного английского.

К примеру, еще в 1971 году психиатру Кеннету Колби удалось убедить несколько практикующих коллег, что они разговаривают через компьютерный терминал с настоящим пациентом. На самом же деле Колби использовал программу, которая моделировала речь параноидального шизофреника.

А совсем недавно, в 2006 году, психолог Роберт Эпштейн (Robert Epstein) был введен в заблуждение хитроумной программой, имитирующей поведение влюбленной в него русской женщины. В последнее время боты роятся на сайтах знакомств, заманивая страдающих от одиночества людей в паутину автоматизированного обмана.

Иногда боты способны одурачить даже продвинутых интернет-пользователей. Берди Яворски знает, каково это. Яворски – одна из завсегдатаев социального новостного сайта Reddit и адепт виртуальной валюты dogecoin. На форуме Reddit недавно появился пользователь под ником wise_shibe, размещающий остроумные замечания в стиле древних изречений. "Его ответы звучали так, словно это сказал Конфуций", – вспоминает Яворски.

Эти комментарии даже начали приносить wise_shibe деньги, поскольку форум позволяет пользователям отправлять друг другу небольшие "чаевые" в цифровой валюте, если им нравится комментарий. Реплики wise_shibe были популярны и собирали много чаевых. Но вскоре все это начало выглядеть подозрительно: аккаунт был активен в любое время суток и в конце концов начал повторяться.

Когда обнаружилось, что wise_shibe - бот, некоторые участники форума были возмущены. Другие же заявили, что ничего не имеют против. Яворски была удивлена, но чувствовала себя обманутой. "Внезапно понимаешь, что этот человек на форуме, который принимает от тебя виртуальную валюту в благодарность за удачные комменты – не более чем маленький робот", – вспоминает она.

Twitter-фантомы


Фабрицио Бенвенуто
Если взаимодействие с ботом выглядит достаточно естественно, то мы с самого начала считаем, что это человек.

Для Фабрицио Бенвенуто (Fabrizio Benvenuto) это явление стало предметом серьезных исследований. Недавно он и трое других ученых опубликовали статью, в которой объясняется, насколько просто социальным ботам проникнуть в Twitter, если они выглядят и действуют как реальные пользователи этой соцсети коротких сообщений.

Бенвенуто и его коллеги создали 120 бот-аккаунтов, постаравшись, чтобы у каждого из них был убедительный профиль с картинкой и такими чисто человеческими атрибутами, как, например, пол. Через месяц они обнаружили, что механизмы идентификации ботов в Twitter не смогли разоблачить почти 70% из них. Более того, боты были заранее запрограммированы на взаимодействие с другими пользователями и быстро привлекли большую группу подписчиков ("фолловеров"), почти 5 тыс. человек.

Возможные последствия этого нельзя недооценивать. "Если в больших количествах создавать программы-социальные боты, то потенциально они могут быть использованы для влияния на общественное мнение. Например, путем публикации большого количества фальшивых сообщений и бессовестного улучшения или ухудшения общественного мнения по какому-либо вопросу", – отмечается в статье.

Использование батальона настойчивых ботов (либо специально нанятых оплачиваемых пользователей – Ред.) для искусственного управления общественным мнением называется астротурфингом (astroturfing).

Потенциальное влияние, которое астротурфинг способен оказать, например, на исход выборов, уже вызывает обеспокоенность профессионалов, в связи с чем в январе автор одного из блогов на сайте агентства Reuters призвал к запрету на использование кандидатами ботов во время предвыборной кампании.

"Гораздо более совершенные"


Последствия астротурфинга могут быть настолько серьезны, что министерство обороны США приняло участие в финансировании разработки программного обеспечения, способного определить, принадлежит ли аккаунт в Twitter боту.

Онлайн-приложение, получившее название BotOrNot, доступно для широкой публики и выполняет упреждающий анализ, основанный на деятельности аккаунта и семантике его твитов, что позволяет с большой долей вероятности предположить, кем является владелец аккаунта – человеком или ботом.

Эмилио Феррара
Но Эмилио Феррара (Emilio Ferrara), ведущий исследователь проекта, признает, что система, возможно, уже устарела. Она прошла обучение на контенте Twitter, которому в настоящее время три года, и не исключено, что лучшие боты наших дней уже научились избегать обнаружения.

"Сегодня боты стали гораздо более совершенными, – говорит Феррара. – Они лучше маскируются, больше похожи на людей. Поэтому задача все больше и больше усложняется. Мы даже не знаем, какова точность системы в обнаружении наиболее свежих и продвинутых ботов".

Похоже, что боты будут совершенствоваться и дальше. У Фрица Кунце из компании Pandorabots есть надежда, что люди научатся лучше распознавать обман и не принимать боты за невинных пользователей, вступающих с ними в контакт в интернете. Но он в то же время отчетливо осознает, насколько сложна задача, которую предстоит решить в ближайшее время.

"Эти боты будут очень, очень продвинутыми, – уверен он. – Они очень качественно будут морочить людям голову".

Комментариев нет:

Отправить комментарий