Роман Ямпольский: «Мы создаём интеллект, который не умеем контролировать». Почему один из главных экспертов по AI-безопасности бьёт тревогу

#
Общественный уполномоченный по защите семьи
0

4 сент. 2025 г. было выложено интервью Романа Ямпольского в ютубе. Кратко изложим тезисы доктора Ямпольского. 

Что будет, если искусственный интеллект начнёт думать лучше человека во всех областях — а мы так и не поймём, как сделать его безопасным?
Компьютерный учёный и один из самых известных исследователей AI-безопасности Роман Ямпольский считает: это уже не сюжет фантастики, а сценарий ближайших лет.

В большом интервью он рисует тревожную картину будущего: массовая автоматизация, обрушение рынка труда, появление AGI уже к 2027 году, роботы-гуманоиды к 2030-му и технологическая сингулярность — к 2045-му. Но главное даже не в этом. По словам Ямпольского, человечество стремительно создаёт систему, которая потенциально может стать умнее нас — при том, что мы не знаем, как её контролировать.

Разбираем главное из этого разговора — без паники, но и без иллюзий.


Кто такой Роман Ямпольский и почему к нему прислушиваются

Роман Ямпольский — доктор компьютерных наук, профессор и один из самых заметных голосов в сфере AI safety. Он утверждает, что занимается проблемой безопасности искусственного интеллекта уже около 15 лет — ещё до того, как сам термин стал популярным.

По его словам, сначала он, как и многие, верил, что «безопасный ИИ» — это просто сложная инженерная задача, которую со временем удастся решить. Но чем глубже он погружался в тему, тем мрачнее становился его вывод: проблема не просто трудная — она может быть в принципе неразрешимой.

«Прогресс в возможностях ИИ — экспоненциальный. Прогресс в безопасности ИИ — линейный или почти нулевой. Разрыв только растёт».

Именно в этом, по мнению Ямпольского, и заключается главный риск.


Главная мысль: мы научились делать ИИ сильнее, но не научились делать его безопасным

За последние годы индустрия поняла простую вещь: если дать системе больше данных, больше вычислительной мощности и больше масштаба, она становится умнее. Это наблюдение и стало топливом нынешней AI-гонки.

Проблема в том, что вместе с ростом возможностей не растёт наша способность:

Ямпольский сравнивает это с попыткой воспитывать сверхразум с помощью «заплаток». Разработчики накладывают поверх моделей ограничения: не говорить это, не делать то, не нарушать такие-то правила. Но это, по его мнению, не решение, а косметический ремонт.

«Если система достаточно умна, она просто найдёт обходной путь».

Иными словами, сегодня безопасность ИИ во многом напоминает не фундаментальный контроль, а набор временных ограничителей, которые могут перестать работать в самый неподходящий момент.


Что такое AGI и почему 2027 год называют переломным

В интервью Ямпольский разделяет три уровня ИИ:

По его оценке, узкий сверхэффективный ИИ у нас уже есть: например, системы, которые лучше людей решают задачи в биологии, математике или игре в покер. А вот полноценный AGI, считает он, может появиться уже к 2027 году.

И это не просто ещё один технологический релиз.

AGI, по мнению Ямпольского, станет моментом, когда большая часть цифровой работы может быть автоматизирована практически мгновенно. Всё, что связано с компьютером — тексты, код, аналитика, маркетинг, сопровождение клиентов, дизайн, финансы, администрирование, медиа — окажется под угрозой.


«99% безработицы» — прогноз, который звучит как провокация, но уже не кажется невозможным

Одна из самых жёстких мыслей интервью — прогноз о почти тотальной автоматизации труда.

Ямпольский считает, что как только AI-системы смогут стать «дешёвым цифровым сотрудником», логика рынка будет беспощадной: компаниям просто не будет смысла нанимать людей на большинство задач.

«Речь не о 10% безработицы. Мы можем увидеть 99%».

Звучит радикально. Но логика его аргумента проста:

  1. если ИИ делает ту же работу быстрее и дешевле;
  2. если он доступен по подписке;
  3. если он не устает, не требует отпусков и масштабируется мгновенно;

то массовое вытеснение людей из профессий становится не идеологией, а экономикой.

Сначала, говорит Ямпольский, исчезнет всё, что делается «на компьютере». Затем, с лагом примерно в несколько лет, подтянется и физический труд — благодаря гуманоидным роботам.


Кого заменят первым — и останется ли вообще «человеческая» работа

В интервью ведущий задаёт логичный вопрос: а что насчёт творческих профессий, общения, уникального человеческого стиля? Разве подкастера, преподавателя, водителя, бухгалтера, консультанта нельзя заменить полностью?

Ответ Ямпольского резок: почти любую работу можно автоматизировать, если она поддаётся наблюдению, анализу и воспроизведению.

Он приводит простой пример: современная модель уже может:

То есть ИИ способен не просто копировать человека, а оптимизировать его работу по данным.

Да, останутся профессии, где люди будут предпочитать именно человека: условно, «живого» бухгалтера, врача старой школы, мастера ручной работы. Но, по мнению Ямпольского, это будет уже нишевый, почти премиальный сегмент — как товары handmade в мире массового производства.


Почему привычная формула «переучитесь на другую профессию» больше не работает

Раньше технологические революции действительно уничтожали одни профессии, но создавали другие. Извозчики исчезали, зато появлялись механики, инженеры, операторы, диспетчеры, программисты.

Но Ямпольский считает, что в случае с AGI мы сталкиваемся с чем-то принципиально иным.

Это уже не новый инструмент вроде колеса, двигателя или интернета. Это — универсальный интеллектуальный работник, которого можно направить почти в любую область.

«Если автоматизируются все профессии, у вас нет плана Б».

Он напоминает, как ещё недавно людям советовали «учиться кодить», а затем — идти в prompt engineering. Но и эти направления уже быстро поглощаются самим ИИ.

Поэтому главный вопрос будущего, по его мнению, не «на кого переучиваться», а:


Проблема не только в деньгах — проблема в смысле

Ямпольский признаёт: материально мир всеобщей автоматизации может быть даже богатым. Если ИИ и роботы создают огромное количество «бесплатного труда», базовые товары и услуги могут сильно подешеветь. Теоретически общества смогут обеспечить людям достойный уровень жизни.

Но здесь возникает другая, менее обсуждаемая проблема: что делать человеку, если работа больше не нужна?

Для одних это будет освобождение. Для других — экзистенциальный шок.

Сегодня работа для миллионов людей — это не просто доход, а структура дня, социальная роль, чувство полезности, идентичность. Когда она исчезнет, обществу придётся заново изобретать ответ на вопрос: зачем жить и чем заниматься.

Именно поэтому Ямпольский считает, что мир постзанятости может оказаться гораздо сложнее, чем кажется технооптимистам.


Почему сверхинтеллект — это не «ещё один инструмент», а последняя технология

Самая сильная часть аргумента Ямпольского — его мысль о том, что сверхинтеллект нельзя сравнивать с предыдущими изобретениями человечества.

Огонь был инструментом. Колесо было инструментом. Паровой двигатель, электричество, интернет — всё это инструменты, которые расширяли человеческие возможности.

Но сверхинтеллект, по его мнению, — это уже не инструмент, а замена изобретателю.

«Мы создаём не просто технологию. Мы создаём нового агента, способного сам делать открытия, изобретения и улучшать самого себя».

Если это так, то человечество действительно может приближаться к «последнему изобретению» — моменту, после которого основным источником прогресса станем уже не мы.

И в этом, с его точки зрения, и состоит смысл идеи технологической сингулярности.


Почему нельзя «просто выключить» опасный ИИ

Один из самых популярных бытовых аргументов звучит просто: если ИИ станет опасным, почему бы не отключить его от питания?

Ямпольский считает такой подход наивным. Он напоминает, что даже сегодня мы имеем дело с распределёнными системами, которые невозможно «выдернуть из розетки» одним движением. В качестве примеров он приводит компьютерные вирусы и криптовалютные сети.

Если же речь пойдёт о действительно сверхумной системе, то, по его мнению, всё будет ещё сложнее:

То есть контроль будет реален только до перехода к сверхинтеллекту. После — может стать поздно.


Самый тревожный тезис: мы плохо понимаем, как работают современные модели

Для многих читателей это, возможно, самый неожиданный момент.

Ямпольский подчёркивает: даже создатели передовых AI-моделей не до конца понимают, как именно те работают внутри. Они обучают системы на огромных массивах данных, а затем фактически начинают изучать их поведение экспериментально — почти как биологи изучают новый организм.

«Мы не конструируем это как часы. Мы скорее выращиваем нечто и потом наблюдаем, на что оно способно».

Именно поэтому он называет современные модели «чёрным ящиком». Мы знаем некоторые закономерности — например, что больше вычислений часто даёт больше способностей. Но мы не умеем точно предсказывать, какие именно свойства проявятся в системе при следующем масштабировании.

Это особенно тревожно, если речь идёт о технологии, которую корпорации и государства стремятся сделать максимально мощной.


Сценарий до 2030 года: роботы выходят из экранов в физический мир

Если 2027-й в логике Ямпольского — это время AGI, то 2030 год он связывает с распространением гуманоидных роботов, способных выполнять физическую работу на уровне человека.

Речь уже не только о складах и конвейерах. Он говорит о роботах, которые смогут:

Когда интеллект, подключённый к сети, получает человеческое тело, мир меняется радикально. И это, по его мнению, оставляет всё меньше пространства для уникальной экономической роли человека.


2045-й и сингулярность: момент, после которого мы перестанем понимать мир

Ямпольский ссылается на популярный прогноз Рэя Курцвейла о технологической сингулярности к 2045 году. Под сингулярностью он понимает не магию, а ситуацию, когда темп научно-технического прогресса становится настолько высоким, что человек перестаёт его отслеживать и осмыслять.

Он приводит наглядный пример: если сегодня вы примерно понимаете, что новый смартфон выйдет через год и станет чуть лучше предыдущего, то в мире сверхинтеллекта продукт может обновляться не раз в год, а десятки раз в день.

В такой реальности человек теряет не просто контроль — он теряет когнитивную опору. Мир развивается быстрее, чем мы способны его понять.


Может ли ИИ привести к вымиранию человечества?

Да, и Ямпольский говорит об этом без обиняков.

При этом он подчёркивает: необязательно ждать именно «восстания машин» в голливудском стиле. Один из наиболее понятных ему сценариев катастрофы — использование продвинутого ИИ для создания нового вируса или другого биологического оружия.

То есть ИИ может стать не только самостоятельным риском, но и ускорителем уже известных угроз — от биотерроризма до кибератак.

Но, по его же словам, самый опасный момент в том, что мы склонны описывать угрозы в пределах собственного воображения. А сверхинтеллект, если он появится, сможет найти способы воздействия на мир, которые человек просто не способен заранее представить.


Что он думает об OpenAI, Сэме Альтмане и гонке за сверхинтеллектом

Ямпольский крайне критичен к логике нынешней AI-гонки. Он считает, что ведущие компании движутся к всё более мощным системам, не имея надёжного ответа на вопрос о безопасности.

В его оценке, проблема не только в технических сложностях, но и в стимулах. Бизнес мотивирован скоростью, лидерством, капитализацией и влиянием. Безопасность при этом легко оказывается «второй задачей».

Он также скептически относится к заявлениям в духе «мы решим проблему по дороге» и предлагает очень простой критерий:

если кто-то утверждает, что умеет контролировать сверхинтеллект, пусть покажет это в строгой научной форме.

То есть не обещания, не интуиция и не маркетинг, а внятный, проверяемый, воспроизводимый подход.

Пока такого подхода, по его мнению, мир не увидел.


Можно ли вообще что-то сделать?

Здесь у Ямпольского нет успокаивающего ответа. Он не верит, что одной только регуляцией всё можно решить: технологии распространяются между странами, становятся дешевле, а значит рано или поздно доступ к ним получают всё больше игроков.

И всё же он не призывает к капитуляции.

Его позиция такая:

Он поддерживает мирные протесты и гражданские инициативы вроде Pause AI и Stop AI, хотя и не уверен, что они успеют набрать нужный масштаб.


И наконец: почему разговор об ИИ неожиданно переходит к теории симуляции

Одна из самых необычных частей интервью — рассуждения Ямпольского о том, что мы, вероятно, живём в симуляции.

Его логика такова: если цивилизация может создать:

  1. ИИ человеческого уровня,
  2. виртуальные миры, неотличимые от реальности,

то рано или поздно она начнёт запускать бесчисленное количество симуляций — ради исследований, развлечения, тестирования или чего угодно ещё. А если симуляций очень много, статистически шанс жить в «базовой реальности» становится ничтожно мал.

Это, конечно, уже философия, а не инженерия. Но показательно, что разговор о будущем ИИ всё чаще упирается не только в рынок труда и технологии, но и в самые фундаментальные вопросы: что такое сознание, реальность, контроль и смысл человеческой жизни.


Главный вывод

Интервью с Романом Ямпольским не даёт комфорта. Зато даёт редкую вещь — ясную формулировку того, что поставлено на карту.

Его главный посыл можно свести к одной мысли:
человечество ускоряется в создании всё более сильного ИИ намного быстрее, чем учится им управлять.

Можно спорить с его сроками. Можно не соглашаться с уровнем пессимизма. Можно считать его прогнозы слишком радикальными. Но игнорировать поставленный вопрос уже невозможно.

Если Ямпольский прав хотя бы частично, то сегодня мы обсуждаем не просто новую технологию, а момент, который определит судьбу цивилизации.

И это уже не тема только для инженеров, инвесторов или фантастов. Это разговор, который касается всех.

Остались вопросы? Вы можете задать их нам через чат-бота в телеграм
Задать вопрос
Подписывайтесь на наши ресурсы:
#ИИ # Искусственный Интеллект # Ai # Работа # Труд
Дорогие друзья!

Наша деятельность ведется на общественных началах и энтузиазме. Мы обращаемся к Вам с просьбой оказать посильную помощь нашей экспертной и правозащитной деятельности по защите традиционной семьи и детей России от западных технологий и адаптированных с помощью лоббистов законов. С Вашей помощью мы сможем сделать еще больше полезных дел в защите традиционной Российской семьи!

Для оказания помощи можно перечислить деньги на карту СБЕРБАНКА 4276 5500 3421 4679,
получатель Баранец Ольга Николаевна
или воспользуйтесь формой для приема взносов: