МК АвтоВзгляд Охотники.ру WomanHit.ru
Югра

Владимир Бебех: Насколько далеко всё заходит?

pixabay.com

В текущей статье я вновь обращаюсь к теме контроля над создаваемым AGI — искусственным общим интеллектом. Поводом послужило эссе, которое генеральный директор Microsoft по искусственному интеллекту (ИИ) Мустафа Сулейман опубликовал на прошлой неделе в своем блоге (mustafa-suleyman.ai).

По мнению Сулеймана, на пути к созданию сверхразу­ма нам стоит обратить внимание на то, что новейшие изобретения и технологии способны кардинально изменить наше восприятие личности и общества.

В частности, он выражает обеспокоенность тем, что скоро многие люди начнут так сильно верить в иллюзию искусственного интеллекта как сознательных существ, что начнут выступать за их права. То есть воспринимать ИИ как живое существо, что Сулейман называет «психозом ИИ».

Для объяснения будущей модели ИИ он вводит термин SCAI (Seemingly Conscious AI — «кажущийся сознательным ИИ». — Ред.).

Мустафа Сулейман заявляет, что его жизненная миссия — это «создание безопасного и полезного искусственного интеллекта, который сделает мир лучше».

Однако современные ИИ‑технологии вплотную подошли к созданию иллюзии сознания у новых нейросетей, что тревожит Сулеймана и заставляет говорить о том, что искусственный интеллект с SCAI не возникнет случайно — кто-то сможет его спроектировать, скомбинировав определенный список возможностей.

Что необходимо для создания ИИ, обладающего видимым сознанием, на взгляд Мустафы Сулеймана:

∎ Язык.

∎ Эмпатическая личность.

∎ Память.

∎ Утверждение о субъективном опыте.

∎ Ощущение себя.

∎ Внутренняя мотивация.

∎ Постановка целей и планирование.

∎ Автономность.

Опубликованное эссе Мустафы Сулеймана — это  продолжение дискуссии в экспертном сообществе о том, может ли ИИ «рассуждать», достижимо ли для него обладание «сознанием». 

Сулейман призывает к общественным дебатам, введению норм и ограничений при создании новых моделей ИИ.

Мустафа СУЛЕЙМАН, генеральный директор Microsoft по искусственному интеллекту:

«Мы должны создавать ИИ для людей, а не для того, чтобы быть цифровым человеком».

Буквально в своей предыдущей статье я высказывал мнение, что стремление ИТ-компаний увеличить доходы от рекламы и ИИ привело к тому, что индустрия искусственного интеллекта начала агрессивно стирать грань между человеческими отношениями и взаимодействием с ботами.

По мере того как быстро развивались технологии в области создания продвинутых больших языковых моделей (LLM), среди экспертов все чаще стали звучать опасения, что мы без оглядки передаем функции управления нашей жизнью искусственному интеллекту.

А ведь это может не только нести удобство и комфорт для нашего общества, но и иметь негативные последствия для человека.

В мае 2023 года в сенсационном интервью доктора Джеффри Хинтона, «крестного отца искусственного интеллекта» (разработчика проекта ChatGPT), изданию The New York Times ученый поделился опасениями о том, что технология, над которой он работал больше полувека, может навредить человеку.

Самое интересное

Фотогалерея

Что еще почитать

Видео

В регионах