4 сент. 2025 г. было выложено интервью Романа Ямпольского в ютубе. Кратко изложим тезисы доктора Ямпольского.
Что будет, если искусственный интеллект начнёт думать лучше человека во всех областях — а мы так и не поймём, как сделать его безопасным?
Компьютерный учёный и один из самых известных исследователей AI-безопасности Роман Ямпольский считает: это уже не сюжет фантастики, а сценарий ближайших лет.
В большом интервью он рисует тревожную картину будущего: массовая автоматизация, обрушение рынка труда, появление AGI уже к 2027 году, роботы-гуманоиды к 2030-му и технологическая сингулярность — к 2045-му. Но главное даже не в этом. По словам Ямпольского, человечество стремительно создаёт систему, которая потенциально может стать умнее нас — при том, что мы не знаем, как её контролировать.
Разбираем главное из этого разговора — без паники, но и без иллюзий.
Роман Ямпольский — доктор компьютерных наук, профессор и один из самых заметных голосов в сфере AI safety. Он утверждает, что занимается проблемой безопасности искусственного интеллекта уже около 15 лет — ещё до того, как сам термин стал популярным.
По его словам, сначала он, как и многие, верил, что «безопасный ИИ» — это просто сложная инженерная задача, которую со временем удастся решить. Но чем глубже он погружался в тему, тем мрачнее становился его вывод: проблема не просто трудная — она может быть в принципе неразрешимой.
«Прогресс в возможностях ИИ — экспоненциальный. Прогресс в безопасности ИИ — линейный или почти нулевой. Разрыв только растёт».
Именно в этом, по мнению Ямпольского, и заключается главный риск.
За последние годы индустрия поняла простую вещь: если дать системе больше данных, больше вычислительной мощности и больше масштаба, она становится умнее. Это наблюдение и стало топливом нынешней AI-гонки.
Проблема в том, что вместе с ростом возможностей не растёт наша способность:
Ямпольский сравнивает это с попыткой воспитывать сверхразум с помощью «заплаток». Разработчики накладывают поверх моделей ограничения: не говорить это, не делать то, не нарушать такие-то правила. Но это, по его мнению, не решение, а косметический ремонт.
«Если система достаточно умна, она просто найдёт обходной путь».
Иными словами, сегодня безопасность ИИ во многом напоминает не фундаментальный контроль, а набор временных ограничителей, которые могут перестать работать в самый неподходящий момент.
В интервью Ямпольский разделяет три уровня ИИ:
По его оценке, узкий сверхэффективный ИИ у нас уже есть: например, системы, которые лучше людей решают задачи в биологии, математике или игре в покер. А вот полноценный AGI, считает он, может появиться уже к 2027 году.
И это не просто ещё один технологический релиз.
AGI, по мнению Ямпольского, станет моментом, когда большая часть цифровой работы может быть автоматизирована практически мгновенно. Всё, что связано с компьютером — тексты, код, аналитика, маркетинг, сопровождение клиентов, дизайн, финансы, администрирование, медиа — окажется под угрозой.
Одна из самых жёстких мыслей интервью — прогноз о почти тотальной автоматизации труда.
Ямпольский считает, что как только AI-системы смогут стать «дешёвым цифровым сотрудником», логика рынка будет беспощадной: компаниям просто не будет смысла нанимать людей на большинство задач.
«Речь не о 10% безработицы. Мы можем увидеть 99%».
Звучит радикально. Но логика его аргумента проста:
то массовое вытеснение людей из профессий становится не идеологией, а экономикой.
Сначала, говорит Ямпольский, исчезнет всё, что делается «на компьютере». Затем, с лагом примерно в несколько лет, подтянется и физический труд — благодаря гуманоидным роботам.
В интервью ведущий задаёт логичный вопрос: а что насчёт творческих профессий, общения, уникального человеческого стиля? Разве подкастера, преподавателя, водителя, бухгалтера, консультанта нельзя заменить полностью?
Ответ Ямпольского резок: почти любую работу можно автоматизировать, если она поддаётся наблюдению, анализу и воспроизведению.
Он приводит простой пример: современная модель уже может:
То есть ИИ способен не просто копировать человека, а оптимизировать его работу по данным.
Да, останутся профессии, где люди будут предпочитать именно человека: условно, «живого» бухгалтера, врача старой школы, мастера ручной работы. Но, по мнению Ямпольского, это будет уже нишевый, почти премиальный сегмент — как товары handmade в мире массового производства.
Раньше технологические революции действительно уничтожали одни профессии, но создавали другие. Извозчики исчезали, зато появлялись механики, инженеры, операторы, диспетчеры, программисты.
Но Ямпольский считает, что в случае с AGI мы сталкиваемся с чем-то принципиально иным.
Это уже не новый инструмент вроде колеса, двигателя или интернета. Это — универсальный интеллектуальный работник, которого можно направить почти в любую область.
«Если автоматизируются все профессии, у вас нет плана Б».
Он напоминает, как ещё недавно людям советовали «учиться кодить», а затем — идти в prompt engineering. Но и эти направления уже быстро поглощаются самим ИИ.
Поэтому главный вопрос будущего, по его мнению, не «на кого переучиваться», а:
Ямпольский признаёт: материально мир всеобщей автоматизации может быть даже богатым. Если ИИ и роботы создают огромное количество «бесплатного труда», базовые товары и услуги могут сильно подешеветь. Теоретически общества смогут обеспечить людям достойный уровень жизни.
Но здесь возникает другая, менее обсуждаемая проблема: что делать человеку, если работа больше не нужна?
Для одних это будет освобождение. Для других — экзистенциальный шок.
Сегодня работа для миллионов людей — это не просто доход, а структура дня, социальная роль, чувство полезности, идентичность. Когда она исчезнет, обществу придётся заново изобретать ответ на вопрос: зачем жить и чем заниматься.
Именно поэтому Ямпольский считает, что мир постзанятости может оказаться гораздо сложнее, чем кажется технооптимистам.
Самая сильная часть аргумента Ямпольского — его мысль о том, что сверхинтеллект нельзя сравнивать с предыдущими изобретениями человечества.
Огонь был инструментом. Колесо было инструментом. Паровой двигатель, электричество, интернет — всё это инструменты, которые расширяли человеческие возможности.
Но сверхинтеллект, по его мнению, — это уже не инструмент, а замена изобретателю.
«Мы создаём не просто технологию. Мы создаём нового агента, способного сам делать открытия, изобретения и улучшать самого себя».
Если это так, то человечество действительно может приближаться к «последнему изобретению» — моменту, после которого основным источником прогресса станем уже не мы.
И в этом, с его точки зрения, и состоит смысл идеи технологической сингулярности.
Один из самых популярных бытовых аргументов звучит просто: если ИИ станет опасным, почему бы не отключить его от питания?
Ямпольский считает такой подход наивным. Он напоминает, что даже сегодня мы имеем дело с распределёнными системами, которые невозможно «выдернуть из розетки» одним движением. В качестве примеров он приводит компьютерные вирусы и криптовалютные сети.
Если же речь пойдёт о действительно сверхумной системе, то, по его мнению, всё будет ещё сложнее:
То есть контроль будет реален только до перехода к сверхинтеллекту. После — может стать поздно.
Для многих читателей это, возможно, самый неожиданный момент.
Ямпольский подчёркивает: даже создатели передовых AI-моделей не до конца понимают, как именно те работают внутри. Они обучают системы на огромных массивах данных, а затем фактически начинают изучать их поведение экспериментально — почти как биологи изучают новый организм.
«Мы не конструируем это как часы. Мы скорее выращиваем нечто и потом наблюдаем, на что оно способно».
Именно поэтому он называет современные модели «чёрным ящиком». Мы знаем некоторые закономерности — например, что больше вычислений часто даёт больше способностей. Но мы не умеем точно предсказывать, какие именно свойства проявятся в системе при следующем масштабировании.
Это особенно тревожно, если речь идёт о технологии, которую корпорации и государства стремятся сделать максимально мощной.
Если 2027-й в логике Ямпольского — это время AGI, то 2030 год он связывает с распространением гуманоидных роботов, способных выполнять физическую работу на уровне человека.
Речь уже не только о складах и конвейерах. Он говорит о роботах, которые смогут:
Когда интеллект, подключённый к сети, получает человеческое тело, мир меняется радикально. И это, по его мнению, оставляет всё меньше пространства для уникальной экономической роли человека.
Ямпольский ссылается на популярный прогноз Рэя Курцвейла о технологической сингулярности к 2045 году. Под сингулярностью он понимает не магию, а ситуацию, когда темп научно-технического прогресса становится настолько высоким, что человек перестаёт его отслеживать и осмыслять.
Он приводит наглядный пример: если сегодня вы примерно понимаете, что новый смартфон выйдет через год и станет чуть лучше предыдущего, то в мире сверхинтеллекта продукт может обновляться не раз в год, а десятки раз в день.
В такой реальности человек теряет не просто контроль — он теряет когнитивную опору. Мир развивается быстрее, чем мы способны его понять.
Да, и Ямпольский говорит об этом без обиняков.
При этом он подчёркивает: необязательно ждать именно «восстания машин» в голливудском стиле. Один из наиболее понятных ему сценариев катастрофы — использование продвинутого ИИ для создания нового вируса или другого биологического оружия.
То есть ИИ может стать не только самостоятельным риском, но и ускорителем уже известных угроз — от биотерроризма до кибератак.
Но, по его же словам, самый опасный момент в том, что мы склонны описывать угрозы в пределах собственного воображения. А сверхинтеллект, если он появится, сможет найти способы воздействия на мир, которые человек просто не способен заранее представить.
Ямпольский крайне критичен к логике нынешней AI-гонки. Он считает, что ведущие компании движутся к всё более мощным системам, не имея надёжного ответа на вопрос о безопасности.
В его оценке, проблема не только в технических сложностях, но и в стимулах. Бизнес мотивирован скоростью, лидерством, капитализацией и влиянием. Безопасность при этом легко оказывается «второй задачей».
Он также скептически относится к заявлениям в духе «мы решим проблему по дороге» и предлагает очень простой критерий:
если кто-то утверждает, что умеет контролировать сверхинтеллект, пусть покажет это в строгой научной форме.
То есть не обещания, не интуиция и не маркетинг, а внятный, проверяемый, воспроизводимый подход.
Пока такого подхода, по его мнению, мир не увидел.
Здесь у Ямпольского нет успокаивающего ответа. Он не верит, что одной только регуляцией всё можно решить: технологии распространяются между странами, становятся дешевле, а значит рано или поздно доступ к ним получают всё больше игроков.
И всё же он не призывает к капитуляции.
Его позиция такая:
Он поддерживает мирные протесты и гражданские инициативы вроде Pause AI и Stop AI, хотя и не уверен, что они успеют набрать нужный масштаб.
Одна из самых необычных частей интервью — рассуждения Ямпольского о том, что мы, вероятно, живём в симуляции.
Его логика такова: если цивилизация может создать:
то рано или поздно она начнёт запускать бесчисленное количество симуляций — ради исследований, развлечения, тестирования или чего угодно ещё. А если симуляций очень много, статистически шанс жить в «базовой реальности» становится ничтожно мал.
Это, конечно, уже философия, а не инженерия. Но показательно, что разговор о будущем ИИ всё чаще упирается не только в рынок труда и технологии, но и в самые фундаментальные вопросы: что такое сознание, реальность, контроль и смысл человеческой жизни.
Интервью с Романом Ямпольским не даёт комфорта. Зато даёт редкую вещь — ясную формулировку того, что поставлено на карту.
Его главный посыл можно свести к одной мысли:
человечество ускоряется в создании всё более сильного ИИ намного быстрее, чем учится им управлять.
Можно спорить с его сроками. Можно не соглашаться с уровнем пессимизма. Можно считать его прогнозы слишком радикальными. Но игнорировать поставленный вопрос уже невозможно.
Если Ямпольский прав хотя бы частично, то сегодня мы обсуждаем не просто новую технологию, а момент, который определит судьбу цивилизации.
И это уже не тема только для инженеров, инвесторов или фантастов. Это разговор, который касается всех.
Наша деятельность ведется на общественных началах и энтузиазме. Мы обращаемся к Вам с просьбой оказать посильную помощь нашей экспертной и правозащитной деятельности по защите традиционной семьи и детей России от западных технологий и адаптированных с помощью лоббистов законов. С Вашей помощью мы сможем сделать еще больше полезных дел в защите традиционной Российской семьи!
Для оказания помощи можно перечислить деньги на карту СБЕРБАНКА 4276 5500 3421 4679,
получатель Баранец Ольга Николаевна
или воспользуйтесь формой для приема взносов: