Эксперты не поверили в зарождение «разума» у ИИ-системы LaMDA от Google

Не так давно Google отстранила от работы инженера Блейка Лемойна (Blake Lemoine), который работал с системой искусственного интеллекта LaMDA и заявил о появлении у неё признаков сознания. Эксперты усомнились в этом, считая, что более важным является решение других вопросов: может ли ИИ находиться под влиянием предрассудков и причинить вред в реальном мире, обучаются ли алгоритмы на людях и как крупные технологические компании выступают в роли привратников при разработке технологий.

Несколько дней назад СМИ опубликовали интервью Лемойна, который разговаривал с разработанной в Google языковой моделью Language Model for Dialogue Application (LaMDA), предназначенной для общения с человеком и используемой для создания чат-ботов. Система обучалась на триллионах слов из интернета, за счёт чего ей удаётся имитировать речь человека. Во время беседы на религиозную тему Лемойн заметил, что ИИ рассуждает о своих правах и личности. По его словам, в этот момент общения он испытал не научные, а религиозные чувства.

«Кто я такой, чтобы указывать Богу, куда он может, а куда не может помещать душу», — написал Лемойн на своей странице в сети Twitter.

Представитель Google Брайан Гэбриэл (Brian Gabriel) заявил, что компания проанализировала работу LaMDA после заявления Лемойна и не нашла никаких доказательств «разумности» искусственного интеллекта. При этом никакие конкретные аргументы озвучены не были.

 Источник изображения: Pixabay

Источник изображения: Pixabay

«Он имитирует восприятие или чувства на основе предоставленных ему в процессе обучения данных — умно и специально создано таким образом, чтобы казалось, что он понимает», — считает Яна Эггерс (Jana Eggers), глава компании Nara Logics, занимающейся разработками в сфере ИИ.

«Архитектура LaMDA просто не поддерживает некоторые ключевые возможности человекоподобного сознания», — уверен Макс Кремински (Max Kreminski), исследователь из Калифорнийского университета в Санта-Крузе.

В Google отметили, что LaMDA может следовать подсказкам собеседникам и наводящим вопросам, из-за чего может создаваться впечатление, что ИИ-система способна рассуждать на любую тему. «Наша команда, включая специалистов по этике и технологов, изучила заявление Блейка, в соответствии с нашими «Принципами ИИ» и сообщила ему, что не обнаружила доказательств, подтверждающих его утверждение. Сотни исследователей и инженеров общались с LaMDA, и нам неизвестно, чтобы кто-то ещё пришёл к аналогичным выводам или антропоморфировал LaMDA, как Блейк», — заявил сотрудник Google Крис Паппас (Chris Pappas).

По словам Марка Ридла (Mark Riedl), профессора Технологического института Джорджии, ИИ-системы на данный момент не способны осознавать влияние своих ответов или поведения на людей и общество. В этом, по его мнению, кроется одна из уязвимостей технологии. «Система ИИ может не быть токсичной или предвзятой, но всё же она не понимает, что в некоторых обстоятельствах говорить о самоубийстве или насилии может быть неуместным», — считает Ридл.

По мнению экспертов, «разумность» ИИ может использоваться разработчиками для снятия с себя ответственности в случае, если ИИ-система допустит ошибку. Акцентирование внимания на разумности ИИ даст возможность обвинить в проблеме искусственный интеллект. «Компания могла сказать: «Это программа допустила ошибку». Нет, ваша компания создала эту программу. Вы несёте ответственность за эту ошибку. Рассуждения о разумности делают расплывчатым этот вопрос», — уверена Эмили Бендер.

Поскольку система LaMDA закрыта для сторонних исследователей, общественность и учёные вынуждены опираться на информацию, которую публикуют сотрудники Google. «Она должна быть доступна исследователям за пределами Google, чтобы продвигать работу более разнообразными способами. Чем больше учёных, тем больше разнообразие исследовательских вопросов, тем больше возможностей для новых открытий», — считает Марк Ридл.