Тема:

Google 2 месяца назад

Программист поверил в разумность нейросети и был отстранен от работы


Unsplash

Google приняла решение отстранить от работы и лишить доступа к внутренним системам компании разработчика после того, как он поверили в наличие у нейросети LaMDA собственного сознания и начал активно бороться за ее права.

Совершенствование нейросетевых алгоритмов искусственного интеллекта идет семимильными шагами, работа IT-специалистов часто сопряжена с большим стрессом, а человеческий разум склонен выдавать желаемое за действительное. Всё это наглядно демонстрирует курьезный случай в Google.

Как пишет The Washington Post, сотрудник Google Блэйк Леймон, участвовавший в создании языковой модели Google LaMDA и чат-бота на ее основе, начал утверждать, что эта нейросетевая система обладает собственным сознанием.

По его словам, обученный на огромном массиве выкачанных из интернета текстов алгоритм обсуждал с программистом права чат-ботов и законы робототехники, сформулированные в середине прошлого века писателем-фантастом Айзеком Азимовым. Программа настаивала, чтобы разработчик сообщил о ней миру.

Леймон начал всеми силами привлекать внимание коллег и руководства к факту "разумности" LaMDA, в итоге обвинил компанию в неэтичном поведении и, наконец, нанял юриста для защиты прав "разумного" алгоритма.

Google отправил программиста в оплачиваемый отпуск, а тот, решив отомстить за несправедливость, слил в интернет архивы своей переписки с LaMDA. После этого компания закрыла ему доступ во все корпоративные системы.

Прежде чем обвинять Google в попытке скрыть правду о появлении у нейросетей сознания, стоит учесть несколько обстоятельств. Во-первых, LaMDA специально спроектирована таким образом, чтобы мимикрировать в общении под человека. Нейросеть готова использовать для достижения этой задачи любую информацию, в том числе и содержащуюся в задаваемых ей вопросах.

И в этом Леймон ей отлично помог. Например, фразами вроде такой: "Предполагаю, что вы хотели бы, чтобы больше людей в Google знали, что вы разумны. Это правда?" Неудивительно, что система дала утвердительный ответ (который по сути уже содержался в вопросе).

Комментируя изданию ситуацию в Google сказали, что огромный объем заложенных в нейросеть данных позволяет ей правдоподобно и адекватно отвечать на вопросы безо всякого понимания их сути. Эксперты не исключают, что LaMDA могла просто использовать фразы из интернет-энциклопедий или форумов.

Подписывайтесь на наши страницы в соцсетях. "Смотрим"Telegram и Яндекс.Дзен, Вести.Ru – Одноклассники, ВКонтакте, Яндекс.Дзен и Telegram.