Газета.Ru в Telegram
Новые комментарии +

Рекомендательные системы: помощь в выборе или утрата контроля над ним

Почему необходимо законодательство по регламентированию работы алгоритмов диджитал-сервисов

В последнее время все больше и интенсивнее ведутся дискуссии о необходимости ограничения влияния так называемых рекомендательных систем на осуществляемый нами выбор. Эксперты говорят о том, что сервисы слишком много знают о нас, фактически имеют контроль над нашим выбором, а предложения, основанные на рекомендательных алгоритмах, базируются на слишком личной информации. Ссылаясь на международный опыт, законодатели озвучивают позицию о необходимости урегулировать работу рекомендательных систем. «Газета.Ru» обсудила с членом Комиссии по правовому обеспечению цифровой экономики Московского отделения Ассоциации юристов России, директором по правовым инициативам Фонда развития интернет-инициатив (ФРИИ) Александрой Орехович различные аспекты возможного регулирования этой сферы.

- Действительно ли так опасны рекомендательные системы, заменяют ли они нашу волю или просто помогают нам в выборе? Лимитирована ли работа рекомендательных сервисов в других странах и как? Что представляют собой рекомендательные системы?
 
По сути рекомендательные системы – это совокупность алгоритмов и программ, задача которых – предсказать, что может заинтересовать пользователя на основе уже имеющихся данных о его предпочтениях. Рекомендательные системы классифицируются, как правило, в зависимости от типов данных, которые используются алгоритмом для вычисления предпочтений (основанные на знаниях, основанные на контенте, гибридные и др.).
 
С работой рекомендательных систем мы сталкиваемся повсеместно: все замечали, что если посмотрели в онлайн кинотеатре «Корону», затем перешли на «Аббатство Даунтаун», то скорее всего дальше вам будут предлагаться «Гордость и предубеждение» и другие игровые костюмированные фильмы с историческим уклоном с сюжетными линиями о жизни благородных семейств Великобритании. То же самое – с музыкой.

И, казалось бы, нам просто помогают находить новый контент, уже основываясь на наших интересах. В чем опасность?
 
Но дальше – больше. Интересуясь новостями, научными изысканиями, убеждениями, мы получаем предложения погрузиться в определенный контент, который нас когда-то заинтересовал, глубже; как правило, альтернатив при этом не предлагается – ведь алгоритмы «заточены» на удержание внимания человека, а не на развитие его критического мышления. И вот мы уже во власти только одного вектора мышления, убеждения. Например, не определившись с отношением к вакцинации, человек читает статью о вреде прививок, переходит по нескольким ссылкам. Не составив окончательного мнения, покидает страницы.

На следующий день алгоритм предложит ему еще несколько статей о недостатках вакцинации, не предложив ни одной статьи с альтернативным мнением. В итоге – окончательное мнение формируется, но не на основе внутреннего убеждения, взвешивания «за» и «против», а на основе искусственно созданного информационного вакуума, иллюзии о том, что «все только и пишут о вреде прививок». То же самое работает и в обратную сторону: когда у человека создается ошибочное впечатление, что позиция, направленная против вакцинации, - массово осуждается и порицается.
 
Эксперты бьют тревогу: искусственно сформированные мнения разобщают общество, степень разобщения не была так высока за последние 50 лет: рекомендательные системы по сути ведут к созданию сообществ людей, не просто объединенных одними интересами, но существующих в парадигме отсутствия альтернативных точек зрения, необходимости их принятия.
 
Основатель Telegram Павел Дуров пару месяцев назад объявил: «Чтобы быть творческими и продуктивными, мы должны сначала очистить с нашего разума липкую грязь нерелевантного контента, которым его ежедневно наводняют «рекомендательные алгоритмы». Если мы хотим вернуть себе творческую свободу, мы должны сначала вернуть себе контроль над своим разумом».
 
- Как вернуть стремительно ускользающий контроль? Какие методы и способы предлагают различные страны в своем регулировании?
 
- Стоит оговориться сразу: действующим законодательством в области регулирования рекомендательных систем не может похвастаться пока ни одно государство. В разных странах существуют проекты законов и актов, направленных на регулирование работы рекомендательных систем, что примечательно, демонстрирующие схожесть подходов государств к видению перспективы ограничения работы соответствующих алгоритмов. Так, в августе этого года Управлением по вопросам киберпространства КНР был опубликован проект Регламента работы рекомендательных систем. К числу основных принципов работы систем проект документа относит недопустимость манипуляции сознанием пользователей с целью провоцирования их на совершение противоправных действий, нарушение общественного порядка и т.д.
 
Одним из основных положений проекта Регламента является четкое требование о необходимости информировать пользователя о том, на каких принципах и в каких целях используются рекомендательные алгоритмы. И – самое главное – установлена возможность пользователя в любой момент отказаться от использования рекомендательных систем.
 
По схожему пути – по пути предоставления пользователям прав быть информированными и отказаться от использования рекомендательных сервисов - идут и в США.

Там в ноябре этого года внесен на рассмотрение Палаты Представителей законопроект, имеющий целью запрет манипуляций мнением пользователей, основанных на использовании их данных. Он провозглашает, что у человека должна быть возможность взаимодействовать с Интернет-платформами без манипуляций со стороны последних. Законопроект обязывает платформы уведомлять человека при первом контакте с «непрозрачным» алгоритмом о методах и целях его использования, предоставляет возможность пользователю отказаться от использования алгоритмов.  Кроме того, предусматривается, что платформы в течение года после опубликования закона обязаны будут создать технические возможности для пользователей посещать версии платформ, не использующих рекомендательные алгоритмы и платформ, использующих их, а также оперативно переключаться между этими версиями.

Важное место законопроект отводит тому, что лежит в основе любой рекомендательной системы – данным о пользователях. Так, проект устанавливает, что пользователь должен выразить четкое желание на использование своих данных в целях работы рекомендательных алгоритмов, а также четко очерчивает круг данных, которые не могут быть использованы в этих целях (например, данные истории привязанного девайса).
 
Положения и принципы регулирования довольно справедливы.

Если они будут положены в основу регулирования работы рекомендательных, есть шанс, что получится добиться главной цели – лимитировать их влияние на жизнь и выбор людей.
 
В то же время в отсутствие регулирования ряд платформ и сервисов уже принимают меры для достижения этих целей. Так, Apple приняла новую Политику конфиденциальности в апреле этого года. Согласно ее положениям, пользователи имеют право отказаться от передачи своих данных в рекламные системы. То есть владельцы приложений не получают данные пользователя, в связи с этим не могут формировать рекламные предложения на основе собранных данных. IT-гиганты (Facebook, Twitter, Snapchat) заявили о потере почти 10 млрд долларов выручки в связи с новыми правилами. Однако, при этом многие упрекают Apple в том, что такие меры предпринимаются не только и не столько из уважения к мнению пользователей, а с целью составить конкуренцию крупнейшим сервисам.
 
- А что в России?
 
- В России, как и везде, перспектива регулирования работы рекомендательных систем только обсуждается. Так, в августе этого года прогремела новость о том, что в осеннюю сессию Госдумы, еще до конца 2021 г., будет внесен законопроект, направленный на регулирование использования рекомендательных алгоритмов
 
По словам потенциального инициатора - члена комитета Госдумы по информационной политике, депутата Антона Горелкина - разрабатываемый им законопроект должен предусмотреть возможность отключения рекомендательных алгоритмов соцсетей и видеохостингов.

Кроме того, такие алгоритмы должны быть прозрачны, за ними должен осуществляться общественный контроль.
 
В то же время, в конце октября рядом компаний был разработан и подписан Кодекс этики в сфере искусственного интеллекта.

Среди важных принципов Кодексом провозглашается уважение и сохранение автономии и свободы воли человека и принятия мер, направленных на «сохранение интеллектуальных способностей человека как самостоятельной ценности и системообразующего фактора современной цивилизации». При этом участникам Кодекса этики рекомендовано информировать своих пользователей об использовании систем ИИ, когда это «затрагивает вопросы прав человека и критических сфер его жизни», а также предоставить возможность пользователю прекратить использование алгоритмов по своему желанию.
 
Конечно, говоря о проблеме регулирования работы рекомендательных систем важно не забывать о первопричине - о том, на чем основывается их работа - на наших данных. Ведь именно собирая и анализируя наши данные - предпочтения, переходы по ссылкам и т.д. -  сервисы формируют рекомендации к просмотру. Таким образом   запретили ограничение использования алгоритмов для формирования рекомендаций по запросу пользователя – устраняет следствие, но не корень проблемы.
 
Очевидно, что для начала необходимо дать пользователю возможность определять, какие данные имеет право использовать тот или иной сервис.

То есть пользователь должен понимать, на основе каких его данных формируются рекомендации, и в случае несогласия - иметь возможность запретить их использование. И затем, как следствие, очевидно, важно, предоставить пользователю и возможность выбрать, хочет ли он получать рекомендации к просмотру и иметь возможность отказаться от них.
 
В целом стоит отметить, что страны, озадаченные в настоящее время вопросом регулирования работы рекомендательных систем, демонстрируют схожесть подходов к такому регулированию, что особенно важно в данной сфере, ведь применение рекомендательных алгоритмов носит трансграничный характер. Представляется, что тождественность требований, основанных на признании превалирования прав человека над экономической выгодой компании в вопросах обработки данных пользователей с целью создания персональных рекомендаций, является большим шагом на пути к обретению утрачиваемого контроля пользователей над собственными решениями и волей.

Загрузка