Владимир Бебех: «Как Sora приближает дипфейки*»

Владимир Бебех: «Как Sora приближает дипфейки*»
Скриншот дипфейка с сайта openai.com.

Компания OpenAI (дочерняя компания Microsoft), известная, прежде всего, своим чат-ботом ChatGPT, 15 февраля текущего года представила новую генеративную модель искусственного интеллекта (ИИ) по имени Sora.

Признаться, эта программа производит большое впечатление своими возможностями.

ИИ способен генерировать сложные сцены с несколькими персонажами, а также точными деталями объекта и фона.

Sora не только буквально выполняет задания-подсказки в командной строке, но и сопоставляет их в физическом мире.

Однако у программы есть и недостатки. Sora пока еще может ошибаться при моделировании физики сложных сцен и путать причинно-следственные связи.

Так, OpenAI приводит пример, в котором человек кусает печенье, но тем не менее после этого на нем не остается следов от укуса.

На сайте компании я насчитал порядка пяти десятков реалистичных видеороликов, тематика которых простирается от виртуальной экскурсии по художественной галерее до битвы двух пиратских кораблей, сражающихся… в чашке с бушующим кофе…

OpenAI открыла доступ к новой программе для тестировщиков из числа специалистов по поискам уязвимостей, а также для ряда художников, дизайнеров и режиссеров.

Компания планирует максимально быстро получить обратную связь от профессионального сообщества, чтобы усовершенствовать модель искусственного интеллекта Sora.

Гонка ИТ-гигантов в создании новых нейросетей с возможностями производства фальшивого контента набирает обороты.

Примерно месяц назад Google представила Lumiere — нейросеть для генерации по текстовому описанию пятисекундных видеороликов.

Но OpenAI идет дальше, разработав программу, способную создавать реалистичные видео высокого качества до одной минуты.

Мы планомерно приближаемся к моменту, когда создание дипфейков станет массовым, — программы их производства будут доступны не только ИТ-специалистам, но и обывателям.

Мой прогноз о какофонии в информационном пространстве остается прежним: скоро даже профессионалы не смогут отличить дипфейки от реальных видеороликов.

*Дипфейк (англ. deepfake) — реалистичные и убедительные фальшивые изображения, видео, голосовые записи.

Что еще почитать

В регионах

Новости региона

Все новости

Новости

Самое читаемое

Автовзгляд

Womanhit

Охотники.ру