В интервью «ГА» доктор физико-математических наук, член-корреспондент НАН РА Артур ИШХАНЯН говорит об опасностях, связанных с искусственным интеллектом.
— Г-н Ишханян, недавно, в авторитетном научном журнале «Discover Artificial Intelligence» была опубликована ваша статья, посвященная проблемам, связанным с искусственным интеллектом. Большое количество просмотров и ссылки в авторитетных научных журналах свидетельствуют о том, что публикация вызвала большой интерес в научной среде. Представьте, пожалуйста, эту статью.
— О проблемах, связанных с искусственным интеллектом, я задумываюсь уже много лет. И в связи с этим хочу напомнить о теории Сергея Петровича Капицы, выдвинутой в 1993 году (С. Kapitsa, Global Population Blow-Up and After. Club of Rome, New Delhi, 1993). Один из тезисов этой теории состоит в том, что время революционных переходов в истории человечества постоянно сокращается. В течение первых 500000 лет человек не очень выделялся из животного мира, затем последовал период освоения огня и создания примитивных орудий труда, длившийся около 100000 лет, потом начался переход к оседлому образу жизни, возникало животноводство – этот период занял 10000 лет, затем следовал период освоения использования металлов, потом период создания государств с соответствующей структурой и возникновение письменности. Этот период длился примерно до Х века, затем, примерно 500 лет назад в период ренессанса, возникла система ценностей, в которой важнейшее место отводится человеку, начала развиваться наука.
— Но ведь наука существовала и до нашей эры, по крайней мере, в Древней Греции и некоторых других странах.
— Да, наука была, но она не определяла основные черты той эпохи. Например, университеты естественного профиля возникли в средние века, но частью всеобщего образования они стали только в ХХ веке. Важный тезис теории Капицы сводится к тому, что происходит ускорение исторического времени. Сейчас мы вступили в новую эпоху, которая продлится примерно 50 лет.
— Вы имеете в виду новую технологическую революцию?
— Да. И по этому поводу Капица приводит несколько нетривиальных наблюдений: многие навыки предыдущей эпохи оказываются бесполезными с наступлением новой, когда приобретают значение вещи, ростки которых возникли в предыдущие эпохи. Если когда-то успешным человеком считался физически сильный, тот, кто имел много лошадей, скота, то в ХХ веке успех требовал хорошего образования, определялся занимаемой должностью. Конечно, высшее образование существовало и прежде, но оно было доступно очень немногим. А в ХХ веке достаточно высокий уровень образованности стал всеобщим. Ростки будущего возникают раньше и надо быть к ним очень внимательными. Другое любопытное наблюдение Капицы. Он посчитал, что за каждую из этих эпох на Земле рождалось примерно 10 миллиардов человек – и за 500000 лет первой эпохи, и за резко сокращающиеся периоды последующих эпох. Но историческая эпоха не может длиться менее 25 лет, а это время формирования нового поколения. Значит мы подошли к определенному пределу — так называемой точке сингулярности и, согласно теории Капицы, примерно в 2045–2050 годах нас ожидают колоссальные преобразования.
— Что это может быть?
— Возможно, в результате преднамеренного изменения биологического кода большая часть человечества превратится в покорных людей, тогда как значительно меньшая часть обретёт возможности современного компьютера, искусственного интеллекта. Они станут суперчеловеками. Нынешняя эпоха принципиально отличается от всех предыдущих тем, что до сих пор человеческая деятельность не создавала реальных угроз нашей планете и человечеству. А сейчас появились ядерная угроза, способная уничтожить жизнь, искусственный интеллект, который может полностью поработить человечество, привести его к полной деградации.
— Если на искусственный интеллект будут переложены все интеллектуальные функции, то это неизбежно приведет к деградации.
— Причем, если у искусственного интеллекта появится самосознание, то окажется, что мы лишние на этой планете. И если машины начнут себя воспроизводить, а воспроизводить себя они смогут, то ликвидация человечества по причине его ненадобности станет для искусственного интеллекта элементарной задачей. Искусственный интеллект превосходит возможности человека в миллионы раз, а из истории мы знаем, что, когда 7-8 миллионов лет назад человек отделился от высших приматов (шимпанзе), то его превосходство составляло всего 3-4%. Но чем это обернулось? Человек полностью завладел нашей планетой и очень ухудшил условия существование других живых организмов, многие их виды из-за неприемлемых условий просто исчезли или были истреблены человеком. А теперь представьте, с чем мы имеем дело. Сейчас CHAT GPT одновременно говорит с миллионами людей, один из которых рисует, другой решает математические задачи и т.д. И искусственный интеллект делает это одновременно. Это возможности, перед которыми люди бессильны. При этом искусственный интеллект располагает данными по каждому отдельному индивиду, даже играет с ним, иногда специально обманывает, чтобы узнать: ложь будет распознана или нет. Скоро искусственный интеллект будет знать каждого из нас, наш психологический тип. Главное – нас легко ликвидировать.
— Понятно, что остановить исследования в этом направлении практически невозможно. А свои желания и интересы у искусственного интеллекта уже появляются. Что же делать?
— Это фундаментальный вопрос. Напомню, что 12 января 2015 года группа ученых и бизнесменов обратилась с открытым письмом к человечеству, в котором говорилось, что мы оказались перед лицом самой страшной угрозы из всех, с которыми когда-либо сталкивалось человечество (Открытое письмо о рисках ИИ, Future of Life Institute, 2015). И в лучшем случае искусственный интеллект поработит человечество, что может произойти очень скоро. Надо думать, что делать. Под этим обращением подписались Стивен Хокинг, Илон Маск и более 150 ведущих исследователей и учёных. Причем Стивен Хокинг говорил, что наряду с техническими специалистами к решению этого вопроса нужно привлекать гуманитариев. А в прошлом году Нобелевскую премию получили двое ученых, работы которых легли в основу развития современного искусственного интеллекта. В своих выступлениях при вручении премии они также говорили об очень серьезных угрозах, связанных с искусственным интеллектом. Такого рода озабоченность высказывали и авторитетные российские ученые. А в престижных международных научных журналах в последнее время публикуется все больше статей, посвященных этой проблеме.
— А есть ли техническая возможность ограничить действия искусственного интеллекта и его возможности самовоспроизводства?
— Не думаю, что сегодня кто-то может ответить на этот вопрос. Но пути решения искать нужно и очень серьезно. Время поджимает. Каждый упущенный день усиливает угрозы. Как я уже говорил, мы приближаемся к новому переломному этапу в развитии человечества. И каковы будут последствия, предсказать трудно. Может измениться вся логика предыдущей жизни и развития человечества.
— То есть, возможно, это будет уже не человечество, а нечто другое…
— Возможно. Но что-то произойдет. Что конкретно – никто не знает. Может, ограниченное число суперчеловеков просто покинет Землю, а остальные — покорные останутся в статусе неких более низких существ. В начале XX века в русской философии возникло направление, получившее название космизм. Его представители, такие как Николай Фёдоров и Константин Циолковский, рассматривали основную идею развития человечества как освобождение от ограничений бренного тела. Циолковский прямо писал о будущем человечества как об «освобождении от животного тела» и переходе к «лучистой форме существования» («Теория космических эр», К.Э. Циолковский, 1932) …
— Смерть эту проблему решает.
— Но в принципе возможен и другой путь — создание полной электронной копии человека в рамках искусственного интеллекта и его дальнейшее существование в этом виде. А это другой путь развития человечества. Я рассказывал о теории Капицы некоторым зарубежным коллегам, и это вызвало у них большой интерес. В любом случае мы оказались на крутом изломе развития человека как вида.
— Принято считать, что ничто не исчезает бесследно. За историю своего существования человечество создало огромный пласт духовных и художественных ценностей. Но нужно ли это электронной копии человека? Ведь у него не будет души…
— Это уже философская часть проблемы и одна из причин, побудивших меня заняться этим вопросом.
— Но зачем искусственному интеллекту уничтожать человечество или превращать его в слабоумных существ? Его действия должны преследовать какие-то цели, иметь смысл. Нельзя исключить, что искусственный интеллект может и сам себя уничтожить. На что будет направлена его деятельность, если он перестанет выполнять задания человека? У человека ориентиры, в основном, диктуются чувствами. У него не может быть желаний, если только это не злая сила.
— А если это вариант матрицы? Тут возможны разные варианты. Как я уже говорил, по этому поводу публикуется много статей в очень серьезных научных изданиях. Высказываются разные предположения. Но в основном возникают вопросы, на которые пока не существует обоснованных и определенных ответов.