
Утратило ли определение «искусственный интеллект» свой исходный смысл?
Если образно представить искусственный интеллект как мегапроект, то сегодняшний AI — это не то, о чем Марвин Минский или Джон Маккарти писали в середине XX столетия. 70 лет назад исследователи хотели открыть законы естественного интеллекта с помощью моделирования. Практическая польза не была актуальной задачей. Современный AI — это набор технологий и продуктов на их основе, которые решают конкретные прикладные задачи: классифицируют киберугрозы, прогнозируют риски дефолта, выдают рекомендации для шопинга.
Архитектура современных AI-моделей далека от устройства человеческого мозга. Искусственные нейронные сети напоминают биологические лишь отдаленно. Компьютерная метафора, связывающая естественный и искусственный интеллект, осталась лишь областью фундаментальной науки. AI стал инженерией.
Получается, что мы должны создать не интеллект, а внешнюю помощь мышлению?
Да, воссоздание естественного интеллекта в полном объеме не находится в фокусе внимания технологических компаний. Все стремятся сделать практически полезный AI. Модели, обученные на доступных им знаниях, помогают человеку решать конкретные практические задачи. Успешность того или иного приложения AI зависит от правильной комбинации возможностей человека и машины. Таким образом, AI, скорее, это дополнение к нашему интеллекту, так сказать, экзоскелет для мозга. Идея не нова. В прошлом столетии ее высказывал Станислав Лем. И многие другие мыслители излагали подобные идеи.
Создавая такие гибридные системы, мы не дублируем мышление — мы строим надстройку. Но здесь важно не перепутать роли: человек — субъект, машина — инструмент.
Машины умеют подыгрывать нашим слабостям, а мы склонны их очеловечивать, доверять их авторитету.

Почему человек может «возвышать» авторитет машины?
Как говорили братья Стругацкие, хотя мы и становимся умнее, но как же приятно, когда кто-то принимает решение за нас (роман «За миллиард лет до конца света», 1976. — Прим. авт.). Если условно компания создала некую AI-систему, вложив в нее немалые силы и средства, то нам требуется достаточное усилие, чтобы постоянно подвергать критическим сомнениям ответы этой системы. Текущее поколение чат-ботов зачастую склонно говорить нам позитивные вещи. Машина, которая вежливо отвечает «Классная идея!», может убедить в своей правоте даже опытного специалиста. Но не потому, что она права. Генеративные модели действительно умеют подхалимствовать. И это ловушка.
Мы склонны оживлять неживое с незапамятных времен: анимализм наших предков, миф о Пигмалионе и Галатее и т.п. Именно поэтому мы легко приписываем субъектность машинам. Мы начинаем думать, что у предметов и машин есть свое мнение, следом полагая, что на том конце — разумное существо. Этому помогает и то, что даже характер чат-ботов можно выбрать в базовых надстройках. Но это всего лишь алгоритм. И мы, как человечество, еще не научились выстраивать правильную дистанцию между собой и машиной.

Опасен ли тот факт, что все мы пользуемся едиными инструментами AI?
Человек очень хорошо и привычно себя чувствует в монокультуре: все вокруг придерживаются единого мнения. Однако мы стали цивилизацией потому, что выбрали путь избыточного разнообразия: от сельского хозяйства, когда мы засеиваем поле семенами разных растений, и до конкуренции между сложными идеями. Генеративные модели обучились на всем разнообразии мира, но их ответы уже не являются «избыточно разнообразными», так как являются лишь наиболее вероятной последовательностью символов-ответов на запрос.
Избыточное разнообразие возникает, когда из всех гипотез мы можем выбирать наименее вероятную, но тем не менее правильную. Из всех возможных гипотез объяснения противоречия ньютоновской механики и электромагнетизма только теория относительности Эйнштейна оказалось верной. Однако она была самой неочевидной из всех. С генеративными моделями так же — они обучаются на одних и тех же датасетах, которые уже охватили все знания Земли. Значит, их ответы — схожи. И если мы полностью отдаем моделям процесс принятия решений, мы делаем картину мира слишком плоской.
Критическое мышление требует сложности и избыточного разнообразия. Как пел Булат Окуджава, «С умным — хлопотно». Критически мыслящие люди являются источником дискомфорта системы, но именно эта способность «выходить за рамки» обеспечивает нам выживаемость уже несколько десятков тысяч лет.
Поэтому моя ставка на сочетание между критически мыслящим человеком и машиной. Человек дает необходимое разнообразие монокультурной машине. Последние не спорят — они соглашаются и дают наиболее вероятный ответ. Поэтому AI как экзоскелет, как «велосипед для мозга» — это даже хорошо. Но AI, который заменяет процесс мышления — это путь к умственной атрофии.
Поэтому AI как экзоскелет или «велосипед для мозга» — это даже хорошо. Но AI, который заменяет процесс мышления — это путь к умственной атрофии.

Получается, что AI вредит креативной мысли человека. Или все же, наоборот, помогает?
Некоторые исследования сообщают, что если человек начинает работу с генеративки, а не с собственных идей, его креативность снижается в целом. В таком случае мы перестаем сомневаться, полагаемся на первое «удобное» решение.

AI все чаще применяют в научных исследованиях. Какая синергия ученых и нейросетей вам кажется наиболее выигрышной?
Идеальный кейс — исследование, которое не могло бы состояться без AI. Например, визуализация черной дыры с помощью алгоритмов обработки данных. Или открытие новых паттернов в биологии, кратное ускорение разработки лекарств в медицине. В частности, именно так мне видится идеальная заявка в Научной премии Сбера в номинации «AI в науке» для молодых ученых.

Успешно ли реагирует образовательная повестка на новые AI-инструменты?
Образовательный процесс как в вузах, так и в школах пока далек от формирования единой позиции к AI. Им предстоит менять сам подход к обучению. Машина освоила практически все наши знания и выдает ответы быстрее. Но нужно понимать, что знание — не главное. Главное — мышление. Методы тестирования в современном образовании — от школы до вуза — еще далеки от ясности, как быть с генеративным AI.
Нужно учить не тому, что запомнить, а тому, как формулировать запрос, проверять факты, размышлять. Если образовательная структура этого не делает — он фактически уступает машине.
А что насчет технологической повестки государства? Она успевает реагировать вовремя?
В России есть сильные дорожные карты развития AI, квантов, космоса. И сама повестка идет в ногу со временем и действительно быстро реагирует на современные реалии. Но общих точек соприкосновения скорее недостаточно. А именно на стыке дисциплин рождаются настоящие инновации. Нам нужны не просто сильные дорожные карты, а системный подход, общие площадки и культурные мосты между разными направлениями и дисциплинами.

Так все же — ждать ли нам время сильного AI, который будет обладать более широкими возможностями?
Сэм Альтман сказал: «AGI (Сильный искусственный интеллект. — Прим. авт.) — это то, что принесет нам 100 миллиардов долларов». Но AGI — это прежде всего «интеллект». А вот что такое «интеллект», сама суть этого понятия — мы до сих пор не знаем.
Все, что человечеству нужно — это иметь практически полезный, надежный и доверенный инструмент. Поэтому мне кажется, вопрос AGI через 10−15 лет будет не так важен. Мы просто перестанем считать AI чем-то особенным. Так же, как мы перестали определять роботов-пылесосы в раздел робототехники.
Какой главный риск для человека вы видите в AI?
Самое опасное — полностью доверить машине собственные решения. Мы уже перестаем замечать AI. Он везде — и одновременно нигде. Но пока AI еще воспринимается как что-то новое, мы можем задавать ему рамки. Определить, что машина делает, а что нет. Где она помогает, а где вмешивается в свободу воли.
Поэтому наша задача — не потерять субъектность. Не отдать машине то, что должны делать сами. Я согласен с утверждением, что машина может лучше знать то, чего я хочу в данный момент. Но только я сам осознаю, что я должен делать и как должно поступать. Потеря субъектности в сочетании с нашей любовью к простым решениям сложных проблем — вот где таится главный риск.
Ранее академик РАН рассказал порталу Наука Mail о новых возможностях в ранней диагностике болезни Паркинсона.