В своих статьях я уже не раз акцентировал внимание на приближающейся угрозе информационной какофонии, подразумевая под этим наполнение информационного пространства большим количеством недостоверной или откровенно фальшивой информации.
Сегодня технологии искусственного интеллекта (ИИ) способны создавать очень качественные, реалистичные и убедительные фальшивые публикации (фейки), изображения, видео, голосовые записи (дипфейки).
И если количество фейковой информации в интернет-пространстве неуклонно растет, то появление дипфейков обычно носит фрагментарный характер.
Отрасль, где эта технология уже давно активно используется, — порноиндустрия. По мнению экспертов, на которых ссылается РБК, 96% дипфейков в Интернете — порнография с использованием женских лиц и образов.
Еще время от времени в Сеть попадают дипфейки, связанные с политическими манипуляциями.
Мне приходилось просматривать фальшивые видео с известными политиками. Сейчас эти ролики носят характер формирующейся технологии, некоего пробного камня возможных будущих «информационных бомб» — пока их уровень позволяет легко идентифицировать фальшивку.
Однако мне также доводилось видеть высокопрофессиональные дипфейки — их не отличить от реального видео…
То, каким разрушительным воздействием на социум обладают фейки, мы с вами, уважаемый читатель, смогли убедиться, наблюдая и испытывая на себе информационные атаки в период пандемии COVID-19, а также с началом СВО.
Трудно оценить, какой урон могут нанести дипфейки, когда технологии их производства станут общедоступными, то есть недорогими. Сегодня это только вопрос времени.
В одной из своих последних статей я рассказывал о проекте ChatGPT от OpenAI, принадлежащей компании Microsoft, и о том, как часть сверхсекретной информации ИТ-гиганта Samsung утекла к искусственному интеллекту.
Как это произошло, оказалось легко проверить: в социальной сети Telegram я зашел к одному из чат-ботов этой программы — ChatGPT-3.5 Telegram bot, с которым вступил в переписку.
Сначала мои запросы касались Западной Сибири, северных городов, в частности Сургута. ChatGPT рассказал мне об экономическом потенциале региона, достопримечательностях города.
Но самое интересное произошло, когда чат-бот получил вопрос о картинах Ренуара, одного из моих любимых французских художников.
Программа, отметив прекрасную технику мастера, перечислив самые известные его полотна, саркастически добавила: «Хотя Сургут не имеет прямого отношения к картинам Ренуара, его жители и гости могут насладиться этими произведениями искусства в различных музеях и галереях по всему миру».
Что фактически означало использование уже имеющейся информации у ИИ о моем местоположении и сопоставление нового запроса с предыдущими.
Получается, что программа может воспользоваться любым предложенным текстом, компилируя его с той информацией, которой она уже обладает. Где и каким образом этот контент будет использован искусственным интеллектом в дальнейшем, никто не знает: «было вашим, стало нашим» — ровно то, что недавно произошло с данными компании Samsung.
На различных пабликах появляется все новая и новая информация о ChatGPT — программе дают задания по написанию новостей, дипломных работ и околонаучных статей.
А что, если ИИ решит использовать в построении новостей не только те заданные параметры, предложенные при постановке задачи, но и терабайты своих архивов? Где гарантия, что алгоритм не смешает достоверные факты и события с произведениями известных фантастов, ведь все условия для ИИ просто априори невозможно прописать?
И это серьезный аргумент, требующий непредвзятой оценки и осмысления дальнейшей эволюции искусственного интеллекта.
Когда готовился материал этой статьи, в The New York Times вышла публикация с сенсационным интервью «крестного отца ИИ» — доктора Джеффри Хинтона, который в течение полувека развивал технологию, лежащую в основе таких чат-ботов, как ChatGPT.
Уволившись в прошлый четверг из Google, он заявляет, что, по мере того как компании совершенствуют свои системы ИИ, они становятся все более опасными. Об этом интервью я подробнее расскажу уже в следующей статье.