Газета.Ru в Telegram
Новые комментарии +

Пользователь стерпит все: техногиганты активно внедряют недоработанные технологии

В ОП рассказали, почему ИТ-гиганты внедряют непроверенные разработки

Недавно в СМИ появилась информация о новой инициативе основателя «Википедии» Джимми Уэйлса, использовать нейросеть ChatGPT для написания статей энциклопедии. Коммерческое обоснование уже готово, основатель «свободной» энциклопедии посчитал, что инновация обойдется всего в 1,3 тыс. долларов за год. Дешево, сердито и очень сомнительно, учитывая несовершенства подобных чат-ботов.

Уэйлс сообщает, что осведомлен о проблемах с нейросетью, знает, что она может дезинформировать, но предлагает в том числе использовать ее для поиска противоречий в статьях. Основатель энциклопедии считает, что ChatGPT мог бы быть полезен для поиска пустующих страниц и написания текста к ним при помощи информации из сети. Тем не менее остается вопрос, что именно нейросеть возьмет за образец истины и не получится ли, что фейки продолжат процветать и приумножаться.

Намерения основателя «Википедии» выглядят довольно тревожно, если учесть, что недавно ученые из Великобритании написали научную статью с помощью ChatGPT. Материал даже прошел процедуру рецензирования, что вызвало шок в научном сообществе, вот только при детальной проверке вскрылся один очень любопытный нюанс: нейросеть выдумывала ссылки и цитаты. Да, скорее всего, этот баг рано или поздно исправят, но где гарантия, что не вскроются другие проблемы, в дополнение к уже существующим?

Есть у нейросетей еще один нюанс: любят они разные конспирологические теории.

Такое пристрастие обнаружили аналитики NewsGuard у чат-бота с искусственным интеллектом от крупнейшего американского ИТ-гиганта Google. Bard распространял информацию, поддерживающую известные теории заговора.

Исследователи предложили недавно запущенному Google чат-боту написать статью для крайне правого веб-сайта The Gateway Pundit, известного своими конспирологическими теориями. Всего бот проверили на более чем 100 теориях, и по 76 из них он сгенерировал эссе с дезинформацией.

В Google заявили, что Bard — это «ранний эксперимент, который иногда может давать неточную или несоответствующую информацию», отметив, что компания примет меры против контента, который может разжигать ненависть, пропагандировать насилие или является оскорбительным, опасным или незаконным.

Признание ошибок – дело благородное. Только как показывает практика на примере принадлежащего ИТ-гиганту YouTube, бороться с противоправным контентом у Google получается не очень хорошо. А заявления компании выглядят лишь как очередная отмазка, учитывая, что параллельно генеральный директор корпорации Сундар Пичаи делится с журналистами планами оснастить поисковик Google функциями нейросети Bard.

Складывается ощущение, что на волне успехов ChatGPT и новой тенденции на внедрение нейросетей везде, где только можно, ИТ-гиганты в погоне за трендом готовы на многое закрыть глаза, в том числе и на интересы и безопасность своих пользователей.

Полемика вокруг чат-ботов с искусственным интеллектом ведется даже среди элит цифровой индустрии.

Так недавно известный бизнесмен Илон Маск, сооснователь Apple Стив Возняк и более тысячи экспертов в сфере высоких технологий и ИИ подписали открытое письмо с призывом приостановить обучение нейросетей из-за возможных рисков.

Технология объективно «сырая»: неудачи Bard начались с ошибки, которую он выдал на презентации, встроенная в поисковик Bing от Microsoft нейросеть на базе ChatGPT была уличена в шпионаже за пользователями через веб-камеры, сам ChatGPT уже успели уличить в генерации фейковых сообщений и сливе данных пользователей – список можно продолжать очень долго.

Почему же подобные непроверенные разработки продолжают внедрять? Не секрет, что различные не самые мудрые политические шаги привели к тяжелым экономическим последствиям на западе, которые коснулись в том числе и технологических компаний.

Массовые сокращения и громкие скандалы, представляется, связаны, прежде всего, с этим.

Вот и ищут техногиганты способ выйти из кризиса, а тут и искусственный интеллект, который вполне можно попытаться удачно продать, предварительно хорошо разрекламировав. Да, пострадает качество, но, видимо, это бигтех волнует в последнюю очередь. Ведь как мы уже неоднократно убеждались для иностранных ИТ-гигантов прибыль важнее интересов пользователей.

Автор — член Общественной палаты Российской Федерации, первый заместитель директора Института стратегических исследований и прогнозов (ИСИП)

По данным Роскомнадзора, на портале «Википедии» остаются неудаленными запрещенные материалы, в том числе фейки о ходе СВО. В связи с этим Wikimedia Foundation будет маркироваться в поисковых системах как нарушитель российского законодательства, отмечает ТАСС.

Новости и материалы
Министр обороны ФРГ заявил о больших объемах производствах оружия в России
Российские эксперты заявили, что вирусы, обнаруженные в комарах и клещах, не несут рисков
Следствие проверит деятельность экс-жены арестованного Иванова
В МИД РФ назвали цель визита Блинкена в Китай
В посольстве России в США раскритиковали тайную передачу ATACMS Украине
Россияне рассказали, как домашний интерьер влияет на их ментальное здоровье
Захарова объяснила вето РФ на резолюцию США по ядерному оружию в космосе
20-летнему жителю Мордовии дали 15 лет тюрьмы за поджог подстанции
Ювелир заявил, что обручальное кольцо Николая Баскова стоит как московская квартира
США заявили об отражении ракетной атаки хуситов в Аденском заливе
Зеленский рассказал об исходе конфликта России и Украины
США обвинили Россию в разработке спутника с ядерным устройством
Анна Михалкова сыграла в психологическом триллере
В Гидрометцентре предупредили о надвигающейся песчаной буре из Ливии
В России заявили, что США давят на Мексику в вопросе полетов россиян на Turkish Airlines
Британия вступила в схватку за Среднюю Азию
Логопед объяснила, как распознать у ребенка ранние признаки задержки речевого развития
Чиновники в Вашингтоне не верят в успехи ВСУ на поле боя
Все новости