– Артур, в ваш прошлый приезд в Тюмень вы рассказывали про технологии влияния на принятие решения, используемые в маркетинге и рекламе. Могут ли они использоваться в других областях, например, при голосовании?
– Могут, но здесь два нюанса. Первый – большинство голосующей аудитории, возможно, уже представлено онлайн, но основными источниками получения мнений для них остаются газеты и телевизор… Из отсутствия данных о том, каким они обладают паттерном принятия решений, очень сложно на них грамотно повлиять. Второй – современные политтехнологи мыслят старыми категориями – кубы у метро, наружная реклама… Они ориентируются на бабушек и формально выигрывают, но лишь до момента повышения явки креативно мыслящей аудитории.
— Можно ли защититься от подобных манипуляций?
— Защита от технологий влияния — сложный вопрос, потому что очень хорошая манипуляция в маркетинге сравнима с идеальным предложением. Например, мужчина в скором времени станет отцом. Мы увидели фотографию его жены и к моменту родов показываем ему статью «10 лучших детских кресел», а через день – контекстную рекламу. Это манипуляция восприятием, но по сути она попадает в его интересы.
Есть тонкая этическая грань, когда алгоритм переходит момент, когда интереса нет, и манипуляция его создает. Если это сделано очень грамотно, то определить практически невозможно.
Случается, что у человека потребности не было вообще. Он получает, например, рекламу автодома и решает: «Круто, куплю!». С точки зрения рекламы мы попали в предпочтения, но по сути, мы человека к этому предпочтению склонили. Как раз отсюда возникает социальный эффект: «Телефон меня подслушал, а потом я получил таргетированную рекламу!» Телефон точно не распознает аудио в реальном времени – это слишком дорого. Просто человек попал в действие предиктивной модели, и попал достаточно хорошо.
– Недавно пользовалась переводчиком в браузере айфона, только отложила телефон – поступил звонок и автоответчик предложил курсы английского. Совпадение?
– Скорей всего, это какие-то недобросовестные сайты. Множество компаний занимаются веб-аналитикой третьего уровня, считают количество посетителей, просмотров и еще каким-то образом сегментируют аудиторию. Действуют по-разному. Например, кто-то может воровать ваши куки и отправлять их мобильному оператору.
— Сейчас маркетологи, к сожалению, отстают от технологий. И дело здесь не столько в маркетологах, сколько в рекламных платформах. Если посмотрите какое-нибудь крутое маркетинговое исследование, построенное на данных, там будут очень тонкие узкие сегменты, много нейролингвистических терминов. А зайдете заказывать рекламную кампанию в «Яндексе» – пол, возраст и семейное положение. Непонятно, почему так. Законодательство позволяет, технологии у таких компаний, как «Яндекс» и «Mail.ru» есть. Тем не менее, в итоге рекламодатель заходит в кабинет, берет всех людей из Москвы и на них всех них одновременно льется реклама кока-колы. Сейчас все работают над тем, как закрыть это технологическое отставание.
– Накопленных данных много, как они могут помочь с информатизацией городского хозяйства, развитием «умного города», например, в Тюмени?
– Все считают, что большие данные – это про построение огромного дата-центра и огромной базы данных. На самом деле собирать и хранить данные мы научились уже лет 7 назад, и очень хорошо. Сейчас проблема сделать выводы из этих данных. Здесь все зависит от задач. Можно решать любые – от транспортных и туристических до вопросов безопасности. Применительно к градостроительной политике это может быть перестановка маршрутов, анализ турпотоков, скоринг заявок на получение материальной помощи… И опять же, здесь всего 5 процентов анализа данных и 95 – того, как это применить. Взять данные у оператора, построить линии и оптимизировать маршруты вообще не сложно. Но в итоге окажется, что тут чего-то нельзя, там ГОСТ не позволяет…
– Активно развивается концепция «Безопасный город», которая предполагает в том числе системы видеонаблюдения, распознавания лиц, госномеров автомобилей. Я слышала, что проходя мимо камер Вы демонстративно закрываете их руками, почему?
– В самой технологии распознавания лиц нет ничего страшного, она работает не так, как многие себе представляют после просмотра «Черного зеркала». Большинство камер просто выделяет лица и хранит их. Никто не знает, что это за люди. Камеры начинают работать на население тогда когда, например, из МВД поступит запрос с фотографией разыскиваемого, то эту фотографию легко сравнить с лицами, которые сохранены в видеопотоке. Здесь нет нарушения 152-ФЗ «О персональных данных» и 25-й статьи Конституции о неприкосновенности частной жизни.
Плюсов у подобных систем большое количество. Но у них есть один большой жирный минус – и это проблема не технологий, а людей — к сожалению, в сложившихся реалиях к ним имеют доступ третьи лица. В Москве известны расценки на доступ к базам мобильных операторов, камер видеонаблюдения, даже к базе МВД.
Из-за развития и взаимопроникновения технологий доступ к этой информации будет только удешевляться. Поэтому, я, с одной стороны, очень большой технооптимист, с другой, как гражданин категорически отрицательно отношусь к складыванию всех моих персональных данных в одну корзину.
– А какой есть выход? Данные-то уже накоплены. Делать ставку на распределенное хранение? Ужесточать закон?
– Европа идет по этому принципу. Российское законодательство кардинально отличается от европейского как раз в этом: мы защищаем данные, Европа защищает права пользователей на собственную приватность. У нас штраф для компаний 50 тысяч рублей, в Европе самый большой – 14 млн. евро. И то во Франции происходили утечки из системы распознавания лиц, в Германии происходили… А у нас еще потом все пароли приклеят на зеленый стикер на экран. Вообще, я не очень люблю дискуссии о том, этично или неэтично использовать систему распознавания лиц по одной причине – от них уже никогда не откажутся.
– В чем, по-вашему, плюсы и минусы развития искусственного интеллекта, какой мир нас ждет?
– Начнем с того, что никакой искусственный интеллект нас не поработит. Сейчас проблема в том, что нет людей, которые бы объективно оценивали отложенный социальный эффект от всех подобных технологий. Например, мы внедрили социальный рейтинг и через 40 лет у нас начала притесняться какая-то определенная группа, потому что алгоритм что-то не учел или просто так получилось. Вот такие вещи прогнозировать очень сложно.
– Есть ли ваши личные или общепринятые границы использования данных? Какие должны быть приняты?
– Я лично стараюсь во всевозможных исследованиях не агрегировать сегменты меньше 1000 человек. Чтобы потом никого нельзя было идентифицировать. Но все равно каждый день приходят запросы из серии: «Вот вам миллион избирателей, можете мне найти ссылки на соцсети?» Во-первых, никто уже не ищет никакие ссылки. Во-вторых, мы можем это за вас проанализировать, а самим вам в руки подобное не выдавать. Такие вещи делать в 2020 году уже как-то не круто.