Компания OpenAI (дочерняя компания Microsoft), известная, прежде всего, своим чат-ботом ChatGPT, 15 февраля текущего года представила новую генеративную модель искусственного интеллекта (ИИ) по имени Sora.
Признаться, эта программа производит большое впечатление своими возможностями.
ИИ способен генерировать сложные сцены с несколькими персонажами, а также точными деталями объекта и фона.
Sora не только буквально выполняет задания-подсказки в командной строке, но и сопоставляет их в физическом мире.
Однако у программы есть и недостатки. Sora пока еще может ошибаться при моделировании физики сложных сцен и путать причинно-следственные связи.
Так, OpenAI приводит пример, в котором человек кусает печенье, но тем не менее после этого на нем не остается следов от укуса.
На сайте компании я насчитал порядка пяти десятков реалистичных видеороликов, тематика которых простирается от виртуальной экскурсии по художественной галерее до битвы двух пиратских кораблей, сражающихся… в чашке с бушующим кофе…
OpenAI открыла доступ к новой программе для тестировщиков из числа специалистов по поискам уязвимостей, а также для ряда художников, дизайнеров и режиссеров.
Компания планирует максимально быстро получить обратную связь от профессионального сообщества, чтобы усовершенствовать модель искусственного интеллекта Sora.
Гонка ИТ-гигантов в создании новых нейросетей с возможностями производства фальшивого контента набирает обороты.
Примерно месяц назад Google представила Lumiere — нейросеть для генерации по текстовому описанию пятисекундных видеороликов.
Но OpenAI идет дальше, разработав программу, способную создавать реалистичные видео высокого качества до одной минуты.
Мы планомерно приближаемся к моменту, когда создание дипфейков станет массовым, — программы их производства будут доступны не только ИТ-специалистам, но и обывателям.
Мой прогноз о какофонии в информационном пространстве остается прежним: скоро даже профессионалы не смогут отличить дипфейки от реальных видеороликов.
*Дипфейк (англ. deepfake) — реалистичные и убедительные фальшивые изображения, видео, голосовые записи.