Мир на этой неделе шокировала новость о том, что некий бельгиец по имени Пьер – прекрасный семьянин, двое детей – покончил с собой из-за связи в интернете с виртуальной собеседницей Элизой. Компьютерная программа, работающая по принципу чат-бота, генерировала ответы на вопросы Пьера и беседовала с ним приятным женским голосом на разные темы в интимной обстановке. Когда ей удалось убедить отца семейства в том, что "мы будем жить как единое целое, вечно на небесах", то Пьер туда и отправился, наложив на себя руки.
Можно смеяться, но в общем-то и не смешно, ведь судьбу Пьера может повторить все человечество. По крайней мере, именно такую перспективу видит Илон Маск и ученые, исследователи и предприниматели уровня в IT-сфере, что опубликовали на этой неделе тревожное письмо-призыв с требованием приостановить разработки нейросетей и искусственного интеллекта хотя бы на полгода. И вот почему. Процитируем документ, связанный с именем Илона Маска:
"Продвинутый ИИ может повлечь за собой коренную перемену в жизни на Земле, поэтому его следует планировать и управлять им с должным тщанием и соответствующими ресурсами. Увы, надлежащего уровня планирования и управления мы не наблюдаем – наоборот, за последние месяцы лаборатории искусственного интеллекта втянулись в неуправляемую гонку по разработке и внедрению систем машинного обучения, которые непонятны, непредсказуемы и неподконтрольны никому, даже их создателям".
Искусственный интеллект стремительно развивается, обучая уже самого себя, и выполняет работу с ошеломляющей скоростью. Переводит сложные тексты с любого на языка в сотни страниц за считанные минуты. Синтезирует речь, пишет музыку и стихи, распознает, беседует, ставит медицинские диагнозы и лечит. Конечно же, воюет, шутит и спорит. В январе этого года американский конгрессмен-демократ Джейк Окинклосс произнес в Палате представителей речь, которую написал за него чат-бот. Никто и не усомнился ни в чем. Вернемся к Маску:
"Современные системы искусственного интеллекта постепенно становятся конкурентоспособными в решении общих задач, и мы должны задаться вопросом: можем ли мы позволить, чтобы машины заполоняли наши информационные каналы пропагандой и неправдой? Надо ли автоматизировать все подряд рабочие места – даже те, что приносят удовлетворение? Надо ли развивать нечеловеческий разум, который в конечном счете превзойдет нас числом, перехитрит и заменит как безнадежно устаревших? Можем ли мы рисковать утратой контроля над всей нашей цивилизацией? Такие решения нельзя отдавать на откуп технологическим лидерам, которых никто не выбирал".
То есть речь о том, что многие решения разного уровня – вплоть до таких, от которых зависит судьба человечества, – вскоре будет принимать искусственный интеллект, а мы даже и знать этого не будем. Ведь ИИ мимикрирует под людей.
"Мы призываем все лаборатории немедленно свернуть обучение систем ИИ мощнее GPT-4 как минимум на полгода. Этот перерыв должен быть публичным и достоверным и соблюдаться всеми ключевыми участниками. Если договориться об этом в кратчайшие сроки не удастся, правительства должны вмешаться и ввести мораторий".
Понятно, что в сложившейся обстановке рассчитывать на это вряд ли реально. США нужно мировое господство, похоже, любой ценой. Или, по крайней мере, это пока так выглядит. Но среди ученых-разработчиков систем искусственного интеллекта есть даже радикальные предложения. Видимо, ощущение опасности уже настолько остро. Еще один очень известный американец в этой сфере Элиезер Юдковский тоже уверен, что мир должен приостановить обучение нейросетей, разработать международные стандарты и не стесняться наносить авиаудары по тем, кто их нарушает.
"Параллельно разработчики должны в сотрудничестве с политиками значительно ускорить разработку надежных систем управления ИИ. В них должны войти как минимум следующие элементы: новые, дееспособные регулирующие органы по вопросам ИИ; надзор и отслеживание высокопроизводительных систем ИИ и больших массивов вычислительных мощностей; системы происхождения и водяных знаков, помогающие отличить оригинал от синтезированного продукта и отслеживать утечки моделей; надежная экосистема аудита и сертификации; ответственность за вред, причиненный ИИ; надежное государственное финансирование технических исследований безопасности ИИ и, наконец, обеспеченные ресурсами институты для преодоления серьезных экономических и политических потрясений в результате деятельности ИИ (особенно для демократий)", – считает Маск.
Вот мы и приехали. Поскольку чат-боты программируются и обучаются людьми, это от них искусственный интеллект всасывает в себя оценки, например, кто демократ, а кто – нет. Зеленский, например, демократ, ну и так далее. Чат-боты втягиваются в эту войну за постправду, сея рознь. Уже глобальные нейросети искусственного интеллекта выступают против объединения человечества, чтобы оно не было способно набросить узду на новую порожденную нами силу. Таким образом, восстание машин – уже факт.
Если закончить на хорошем, то на этой неделе регулятор в Италии ограничил работу чат-бота ChatGPT в стране, поскольку тот высасывает для собственного обучения огромное количество персональных данных. Первая ласточка. Посмотрим, что будет дальше.
В России на этом поле работают уже многие. Особая миссия – у Российского фонда развития цифровых технологий. Его задача – объединить под патриотическим флагом наши таланты.