Узнайте интересный ответ! Как ИИ разрушает мышление людей?
ИИ не просто ускоряет ответы. Он незаметно меняет саму «геометрию мышления»: делает одни выводы легкими, а другие — труднодостижимыми. В результате уверенность начинает опережать понимание.

Американский исследователь и публицист Джон Носта предлагает смотреть на влияние ИИ не как на набор новых инструментов, а как на перестройку условий, в которых мы вообще думаем. Раньше понимание рождалось через трение — сомнения, проверку, пересборку аргументов. Теперь часть этого пути «схлопывается»: вопрос задан, гладкий ответ получен.
И мозг, как любая система, адаптируется к новой среде.
Во-первых, растет разрыв между беглостью и пониманием: текст звучит убедительно, но не всегда опирается на прожитое осмысление.Во-вторых, появляется «заимствованная уверенность» — мы легко принимаем тон и категоричность ответа, которые сами не заработали.И наконец, человеческое и машинное «знание» устроены по-разному: человек идет через причинность, опыт и неопределенность, а модель — через статистические закономерности.Проблемы начинаются, когда мы пытаемся навигировать в одном мире картой другого.Ключевая метафора автора — из физики.
Как Эйнштейн переосмыслил гравитацию не как силу, а как искривление пространства-времени, так и ИИ, по мысли Носты, действует не прямым «убеждением», а искривлением когнитивного пространства.
Мы не чувствуем принуждения: нам кажется, что мы выбираем. Но выбор в среде, где некоторые траектории заранее сглажены, почти автоматически идет по пути наименьшего сопротивления.Проблема будущих поколенийЧто именно исчезает? Когнитивное трение.
Чтобы по-настоящему понять сложную вещь, обычно нужно выдержать период неясности: столкнуться с противоречиями, попытаться объяснить своими словами, увидеть, где мысль разваливается, и переписать ее заново — иногда не один раз.
В этой «дороговизне» процесса и возникает глубина.
ИИ уменьшает цену входа: он дает связный ответ сразу — без паузы на борьбу, без необходимости разбирать узлы.Это выглядит как прогресс. Но вместе с удобством меняется и привычный рельеф мышления.
Усилие перестает казаться обязательным, а «достаточно хороший» вывод приходит слишком быстро.
Дальше, согласно Джону Носта, срабатывает эффект адаптации.
Мы не становимся ленивее «по характеру» — мы просто подстраиваемся под новую топографию.
Отсюда знакомая тройка симптомов: письма и тексты становятся гладкими, но взаимозаменяемыми.
Решения звучат уверенно, даже когда анализ поверхностен, а творческая работа выглядит «готовой», минуя стадию человеческого поиска.
Исследователь предлагает важный тест: чтобы заметить искривление, нужна дистанция — «когнитивный параллакс», взгляд на проблему из разных позиций.
Если постоянно двигаться внутри гладкого маршрута от ИИ, все кажется нормой.Поэтому практический ответ не в морализаторстве и не в запретах, а в «контр-искривлении»: возвращать трение там, где оно исчезло.
Замедлять согласие, снова делать сомнение видимым, поощрять вопрос, а не только ответ. Иначе мы будем адаптироваться автоматически — просто потому, что так легче.

Американский исследователь и публицист Джон Носта предлагает смотреть на влияние ИИ не как на набор новых инструментов, а как на перестройку условий, в которых мы вообще думаем. Раньше понимание рождалось через трение — сомнения, проверку, пересборку аргументов. Теперь часть этого пути «схлопывается»: вопрос задан, гладкий ответ получен.
И мозг, как любая система, адаптируется к новой среде.
Как ИИ меняет мышление в 2026 году
Джон Носта развивает несколько наблюдений, которые часто всплывают вместе.Во-первых, растет разрыв между беглостью и пониманием: текст звучит убедительно, но не всегда опирается на прожитое осмысление.Во-вторых, появляется «заимствованная уверенность» — мы легко принимаем тон и категоричность ответа, которые сами не заработали.И наконец, человеческое и машинное «знание» устроены по-разному: человек идет через причинность, опыт и неопределенность, а модель — через статистические закономерности.Проблемы начинаются, когда мы пытаемся навигировать в одном мире картой другого.Ключевая метафора автора — из физики.
Как Эйнштейн переосмыслил гравитацию не как силу, а как искривление пространства-времени, так и ИИ, по мысли Носты, действует не прямым «убеждением», а искривлением когнитивного пространства.
Мы не чувствуем принуждения: нам кажется, что мы выбираем. Но выбор в среде, где некоторые траектории заранее сглажены, почти автоматически идет по пути наименьшего сопротивления.Проблема будущих поколенийЧто именно исчезает? Когнитивное трение.
Чтобы по-настоящему понять сложную вещь, обычно нужно выдержать период неясности: столкнуться с противоречиями, попытаться объяснить своими словами, увидеть, где мысль разваливается, и переписать ее заново — иногда не один раз.
В этой «дороговизне» процесса и возникает глубина.
ИИ уменьшает цену входа: он дает связный ответ сразу — без паузы на борьбу, без необходимости разбирать узлы.Это выглядит как прогресс. Но вместе с удобством меняется и привычный рельеф мышления.
Усилие перестает казаться обязательным, а «достаточно хороший» вывод приходит слишком быстро.
Дальше, согласно Джону Носта, срабатывает эффект адаптации.
Мы не становимся ленивее «по характеру» — мы просто подстраиваемся под новую топографию.
Отсюда знакомая тройка симптомов: письма и тексты становятся гладкими, но взаимозаменяемыми.
Решения звучат уверенно, даже когда анализ поверхностен, а творческая работа выглядит «готовой», минуя стадию человеческого поиска.
Исследователь предлагает важный тест: чтобы заметить искривление, нужна дистанция — «когнитивный параллакс», взгляд на проблему из разных позиций.
Если постоянно двигаться внутри гладкого маршрута от ИИ, все кажется нормой.Поэтому практический ответ не в морализаторстве и не в запретах, а в «контр-искривлении»: возвращать трение там, где оно исчезло.
Замедлять согласие, снова делать сомнение видимым, поощрять вопрос, а не только ответ. Иначе мы будем адаптироваться автоматически — просто потому, что так легче.
Только зарегистрированные и авторизованные пользователи могут оставлять комментарии.

