В своей предыдущей статье я обещал подробнее рассказать об интервью доктора Джеффри Хинтона — «крестного отца» искусственного интеллекта (ИИ).
В сенсационной публикации, вышедшей пару недель назад в The New York Times (NYT), ученый делится опасениями о том, что технология, над которой он работал более полувека, может навредить человеку.
Напомню, речь идет о разработках, лежащих в основе таких чат-ботов, как ChatGPT.
В 1972 году, будучи аспирантом Эдинбургского университета, Джеффри Хинтон увлекся идеей, названной технологией нейронных сетей.
Нейронная сеть — это математическая система, которая обучается новым навыкам путем анализа данных.
Тогда немногие исследователи верили в эту идею. Но она стало делом жизни доктора Хинтона.
До дня интервью Джеффри Хинтон хранил молчание, поскольку считал неэтичным высказываться на тему искусственного интеллекта, работая в Google.
Сообщив топ-менеджеру компании Сундару Пичаи о своем уходе, ученый рассказал изданию The New York Times много интересного.
Он заявил, что теперь отчасти сожалеет о работе всей жизни, которую он посвятил изучению и развитию технологии генеративного ИИ.
«Я утешаю себя обычным оправданием: если бы я этого не сделал, это сделал бы кто-то другой», — заявил доктор Хинтон во время своего интервью американскому изданию.
Больше всего ученого беспокоит (равно как и его коллег, работающих над развитием технологии. — Прим. автора.) превращение самообучающегося ИИ в автономное оружие — роботов-убийц.
Важно отметить, что Джеффри Хинтон, работая на протяжении всего времени над вышеназванной технологией, старательно избегал сотрудничества с такими военными ведомствами, как Пентагон.
Отказавшись от финансирования своих разработок, он из-за этого даже покинул Университет Карнеги — Меллона (США), переехав в Канаду.
Джеффри Хинтон был пионером в создании и развитии искусственного интеллекта. В 2012 году он и двое его аспирантов из Университета Торонто создали технологию, ставшую интеллектуальной основой развития ИИ.
В настоящее время доктор Хинтон обеспокоен тем, что будущие версии технологии представляют угрозу для человечества, потому что они могут вести себя непредсказуемо, выйдя из-под управления человеком.
Например, генеративный ИИ сегодня уже вполне способен стать эффективным инструментом дезинформации, создавая дипфейки, которые не отличить от реальных фотографий и видео.
По его словам, это становится также проблемой, поскольку отдельные лица и компании позволяют системам ИИ не только генерировать свой собственный компьютерный код, но и фактически запускать этот код самостоятельно.
А это действительно может привести к созданию автономного оружия, избежавшего контроля со стороны человека. Доктор Хинтон все время был категорически против использования искусственного интеллекта на поле боя.
Немногие в свое время верили, что ИИ может стать умнее человека, однако последние разработки таких компаний, как Google (лаборатория DeepMind), Microsoft (компания OpenAI с технологией ChatGPT), доказывают обратное.
«Я думал, что до этого еще 30–50 лет, а то и больше. Очевидно, я больше так не думаю», — откровенно признался доктор Джеффри Хинтон в интервью NYT.
Так, лаборатория DeepMind создала систему, способную победить лучшего игрока в мире в древней игре Го. А чат-бот ChatGPT год от года все больше совершенствуется, не переставая удивлять специалистов в области искусственного интеллекта.
Область развития генеративного ИИ неуклонно ширится. Кроме OpenAI и DeepMind, над проблемой работают исследователи из таких учреждений, как Калифорнийский университет в Беркли и Стэнфордский университет, в сотрудничестве с крупными корпоративными лабораториями.
По мере того как машины тренируются в обработке и анализе новых данных, не исключено, что однажды они смогут найти путь к нежелательному и, возможно, даже вредному поведению.
Еще одно большое беспокойство у экспертов вызывает то, что системы ИИ научатся предотвращать их отключение людьми.
Возможно, в самое ближайшее время нам всерьез придется задуматься о введении ограничений в обучении продвинутых систем искусственного интеллекта.