Владимир Бебех: «Правда или постправда?*»

Владимир Бебех: «Правда или постправда?*»
Изображение от freepik

В связи с увеличением объема мировой информации, а также высокими темпами развития технологий искусственного интеллекта (ИИ) увеличиваются риски «какофонии» достоверной информации и фейков в медийном пространстве.

В одной из своих статей я уже рассказывал об этой потенциальной проблеме. Однако количество информационных сообщений в Интернете продолжает увеличиваться значительно быстрее, чем предполагалось ранее. И причиной этому стали новые технологии производства и передачи информации. Основную угрозу «какофонии» несут удивительно быстро прогрессирующие технологии дипфейков и больших языковых моделей (LLM).

Эта проблема вырисовывается еще и по причине не столько значительного роста объемов информации, как количества недостоверной информации внутри этого объема.

Алгоритмы ИИ разносят информацию поразительно быстро. Огромный поток недостоверной информации проходит через социальные сети. Здесь стоит отметить, что, согласно исследованиям Лаборатории Касперского, распространение фейковой информации происходит быстрее. Прежде всего, из-за ее яркой эмоциональной окраски, призывов к действию и по другим причинам.

Нам становится все труднее отличать достоверную информацию от фейковой, правду от постправды.* При этом технические возможности для обработки данных увеличиваются медленнее, чем растет объем информации.

Гонка различных стартапов в создании новых нейросетей с возможностями производства фальшивого контента набирает обороты. ИИ научился создавать фейковые видео— и аудиосообщения. Причем обыватель не сможет идентифицировать ложную информацию, да и эксперту без специальных программ уже нелегко будет это сделать.

Сегодня чат-боты активно используются для публикации информации на новостных сайтах. Мы наблюдаем, как быстро идут преобразования в журналистике, как все больше контрактов заключают разработчики ИИ на доступ к контенту, к архивам крупнейших мировых изданий и медиахолдингов для «питания» генеративного искусственного интеллекта. А он развивается семимильными шагами.

Настораживает тот факт, что нейросеть потенциально может манипулировать человеком. Программа GPT-4o утвердительно ответила мне на сайте OpenAI на заданный по этой теме вопрос: «Да, ИИ может манипулировать человеком, особенно если он создан с целью влияния на поведение людей или принятие ими решений».

Кроме того, что возникают этические и правовые вопросы, растут риски использования самых продвинутых LLM-моделей для значительного увеличения объема недостоверного контента.

Еще одной из угроз нашего времени я бы назвал вымарывание надлежащей информации — когда взамен достоверной информации размещается фейковая. Этот факт, кстати, отчасти отражен в Указе Президента РФ №35 от 25 января 2023 года о внесении изменений в «Основы государственной культурной политики», где он звучит как «деформация исторической памяти».

Формирование искаженной информации идет с использованием технологичных инструментов распространения информации, а также с участием так называемого «экспертного сообщества».

Исходя из вышесказанного, сегодня будут востребованы шаги по созданию общенациональных систем сохранения цифровой информации. При этом важным здесь будет не только сохранение верифицированного контента, но и его копий, так как количество киберугроз, по данным аналитики компании Positive Technologies, непрестанно растет.

«Стирание» информации с серверов — уже не редкость. А поскольку и так не хватает дата-центров для хранения и передачи того потока информации, который ежегодно увеличивается, то возможная потеря информации из-за атак хакеров — еще одна дополнительная головная боль сегодняшнего времени.

Мы продолжим следить за развитием событий в отрасли.

*Постправда (англ. post-truth) — обстоятельства, при которых объективные факты являются менее значимыми при формировании общественного мнения, чем обращения к эмоциям и субъективным убеждениям.

Что еще почитать

В регионах

Новости региона

Все новости

Новости

Самое читаемое

Автовзгляд

Womanhit

Охотники.ру