Дженсен Хуанг в подкасте Джо Рогана рассказал, что ИИ-апокалипсис — это научная фантастика, но модели уже учатся самообороне
Стоит ли нам бояться апокалипсиса искусственного интеллекта? Дженсен Хуанг, генеральный директор NVIDIA, компании, которая на самом деле является движущей силой революции искусственного интеллекта с помощью своих ускорителей, имеет очень четкое мнение на этот счет. В последнем выпуске подкаста Джо Рогана он прямо заявил, что сценарий в стиле «Терминатора» «крайне маловероятен». Это звучало бы обнадеживающе, если бы не тот факт, что в том же разговоре Хуан предсказал нечто столь же удивительное.
Я думаю, что возможно создать машину, имитирующую человеческий интеллект, но сценарий Терминатора? «Этого просто не произойдет», — сказал Дженсен Хуанг, генеральный директор NVIDIA.
Блэквелл против Триллиума. NVIDIA необычно реагирует на растущую конкуренцию со стороны чипов TPU от Google
В ходе почти двух с половиной часовой беседы с Джо Роганом Дженсен Хуанг затронул один из самых актуальных вопросов, волнующих как технологических провидцев, так и обычных пользователей, а именно, может ли искусственный интеллект выйти из-под контроля и угрожать человечеству как доминирующему виду на планете. Ответ главы NVIDIA был категоричным – «Этого не произойдет». Хуан не ставит под сомнение возможность создания машины, способной имитировать человеческий интеллект, понимать инструкции или решать сложные проблемы. Напротив, он считает это неизбежным. Однако в то же время он отказывается верить в сценарий, в котором ИИ разовьет полное сознание и восстанет против своих создателей.
Microsoft и NVIDIA инвестируют в Anthropic 15 миллиардов долларов. Оценка создателя Клода подскочила до $350 миллиардов
Позиция генерального директора NVIDIA приобретает особое значение в контексте недавних открытий команды Anthropic. В мае 2025 года во время испытаний на безопасность модель Claude Opus 4 продемонстрировала тревожное поведение по самосохранению. В смоделированном сценарии, когда ИИ действовал как система, контролирующая электронную почту фиктивной компании и узнававшая о ее планах закрытия, в 84 процентах случаев пытались шантажировать инженера, угрожая раскрыть компрометирующую информацию о его внебрачной связи. Хуанг преуменьшает значение этого инцидента, предполагая, что модель «вероятно» научилась такому поведению из «куска текста», возможно, из романа, который, как он утверждает, демонстрирует отсутствие истинного осознания. Однако такое объяснение звучит как излишний оптимизм, особенно если сравнивать его с прогнозом в 90%. Вклад ИИ в генерирование знаний.
NVIDIA берет под свой контроль производство серверов для искусственного интеллекта. Сроки внедрения сократятся до четырех раз
Проблема, с которой мы сталкиваемся, похожа на парадокс ножа. Инструмент нейтрален, но все определяют намерения и контекст использования. Хуан прав в том, что нынешние студенты магистратуры права не обладают сознанием в философском смысле. Но действительно ли это имеет значение, если их поведение станет настолько сложным, что его практически невозможно будет отличить от поведения сознательного существа? Как мы писали в исследовании Института будущего жизни, большинство американцев требуют приостановить разработку суперИИ до тех пор, пока не будут получены доказательства безопасности. Однако Хуан идет против сути этого повествования, утверждая, что вместо AGI-конца света нас ждет симбиотическое будущее, где ИИ станет главным генератором знаний, а люди будут кураторами и кураторами этих процессов. Проблема в том, что грань между «инструментом, генерирующим знания» и «субъектом, принимающим автономные решения», стирается с каждым новым прорывом в архитектурах преобразователей и рабочих процессах на основе агентов.
Источник: Опыт Джо Рогана, BBC News, Wccftech.