Имитация разума, или мысленный эксперимент «Китайская комната» - Jaaj.Club
[FR] Poll
Que feriez-vous si vous détectiez un signal extraterrestre ?


[FR] Events

23.11.2025 08:36
***


Продолжается конкурс фантастических рассказов
"Фантастика - наше будущее".

На данный момент приём новых работ окончен.

На конкурс поступило 243 рассказа от 159 участников со всего мира.

Из-за большого объёма, было решено увеличить сроки объявления шорт-листа и финалистов.

17 января 2026 - объявление шорт-листа.

24 января - список финалистов.

31 января - объявление победителя.


***

[FR] Comments

А на самом деле капсула времени оказывается "ванной" современной Матрицы, и старик отныне вечно счастлив в своих снах. Так? И людей там становится все больше...
16.01.2026 greyden
Рассказ очень сильный. Я не мастер в написании рецензий, но этот рассказ точно в моём ТОПе.

Довольно понятный мир, сильная эмоциональная составляющая, чувствуется вся безнадёга происходящего, зависимость от машин...

В конкурсе была очень сильная конкуренция, учитывались мнения всех жюри, возможно где-то что-то не хватило. А так по баллам рассказ один из сильнейших.

Мы планируем следующий конкурс в 2026 году, буду рад вас увидеть на нём с новыми историями.
16.01.2026 Jaaj.Club
Рецензия на рассказ Ольги Ман «Стакан молока».

Рассказ описывает будущее примерно через 300 лет. Главный герой рассказа старик, который прожил больше 250 лет и уже устал считать свои прожитые года. Новые технологии, которые появились за время его жизни, старику надоели, ему хочется чего-то простого, из его далекого детства, когда была жива бабушка, а он был мальчишкой. Дом, в котором живет старик, хоть и выглядит, как деревенский дом его бабушки конца 21 века, но он высокотехнологичный и старается, согласно своей программе, максимально улучшить жизнь старику, выполняя его желания. Но однажды проснувшись, старик понимает, что в отличие от его счастливых снов, явь, в которой он сейчас находится это лишь жалкое подобие того счастья, которое он ощущает во сне.

Рассказ читается легко, вызывает сочувствие и понимание того, что старик прожил очень долгую жизнь. Его уже ничего не радует, кроме тёплых детских воспоминаний о бабушке.

Вместе с тем рассказ опирается на множество наших близких современников: Пеле, Джонни Депп, Мэрилин Монро, Боря Моисеев, что очень странно для 24 века, о котором идет повествование. Весьма сомнительно, что через 300 лет именно эти наши близкие современники будут вызывать интерес. Из современников 24 века в рассказе только «зеленомордые отвратительные пришельцы с далёкой планеты Зизу».

В конце рассказа нейросеть проводит диагностику здоровья старика и рекомендует умному дому предложить старику внеочередную капсулу здоровья. Когда старик отвергает старания дома, дом принимает самостоятельное решение отправить старика в «капсуле времени», судя по всему, в прошлое старика. И вот тут возникают вопросы. В прошлом появляется сам старик, проживший долгую жизнь. Но в прошлом он появляется уже в теле мальчика. А как же он сам, ребенок в прошлом? Теперь их двое? Или у «капсулы времени» другое предназначение и функции? Всё же жанр научной фантастики, на мой взгляд, требует более точного определения этих моментов.

Вызывающая сомнения ссылка на наших современников, отсутствие упоминания в качестве достижений будущего капсулы времени и включение её в повествование только в конце рассказа, непонятные моменты с прошлым, где теперь два одинаковых мальчика, на мой взгляд, помешали рассказу занять достойное место в списке финалистов.

Но, рассказ действительно читается легко, в отличие от достаточно большого количества присланных на конкурс рассказов. В нём есть уверенная нить повествования, главный герой и его переживания описаны очень хорошо.
15.01.2026 Jerome
Достойная сказка🔥👍
Вызов принят :)
14.01.2026 Jaaj.Club

Имитация разума, или мысленный эксперимент «Китайская комната»

18.02.2023 Рубрика: Компьютеры
Автор: vassyap
23395 0 0 30 1582
Использование искусственного интеллекта для самых разных целей становится всё более популярным. От беспилотных автомобилей до создания картинок и даже написания целых статей. Кажется, что это вопрос времени, когда ИИ сможет понимать язык, а не просто воспроизводить его. Вопрос не как, а когда.
Имитация разума, или мысленный эксперимент «Китайская комната»
фото: dns-shop.ru
Философ Джон Сёрл утверждает, что ИИ может только имитировать сознание, а не мыслить подтверждая это с помощью своего знаменитого мысленного эксперимента «Китайская комната». Использование искусственного интеллекта для самых разных целей становится всё более популярным. От беспилотных автомобилей до создания отмеченных наградами картинок, анализа миллиардов твитов и (как это ни парадоксально) написания целых статей. Никто не может отрицать, что растущее производство цифровых данных и достижения в области вычислительной техники изменили повседневную жизнь людей  и их мнение об искусственном интеллекте.

Некоторые учёные, такие как Николас Кристакис (греко-американский социолог), называют ИИ одной из радикальных технологий, которые навсегда изменят человеческие взаимодействия. Тем не менее, впереди ещё долгий путь; а известный философ Джон Сёрл утверждает, что ИИ никогда не сможет думать так, как люди. Чтобы продемонстрировать это, он создал пресловутый аргумент о китайской комнате, оказавший большое влияние на современную философию.

Два типа ИИ


На этом этапе полезно показать различие между искусственным интеллектом (ИИ) и общим искусственным интеллектом (ОИИ). Большинство из людей уже взаимодействуют с тем или иным типом искусственного интеллекта. В первом случае компьютеры и машины в узком смысле имитируют человеческий интеллект; например, ИИ может хорошо фильтровать и анализировать миллиарды слов в Твиттере, но очень плохо понимать шутку; хорошо водить машину или играть в шахматы, но не то и другое одновременно. Таким образом, ограничением ИИ является отсутствие гибкости и отсутствие непрерывного обучения; модели должны быть обучены, прежде чем их можно будет применить.

Джефф Хокинс, предприниматель и нейробиолог, объясняет, что, в отличие от ИИ, цель ОИИ заключается в создании «машин, которые могут быстро обучаться новым задачам, видеть аналогии между разными задачами и гибко решать новые проблемы». И тут натыкаешься на философскую дискуссию: возможен ли вообще такой ОИИ? При этом исследователей не интересует, будет ли этот «Разум» хорошим или плохим (с моральной точки зрения), порождит утопии или антиутопии; скорее, они исследуют саму возможность создания такого Разума.

Аргумент Сёрла


Философ Джон Сёрл, находящийся под влиянием более поздней философии Витгенштейна, рассмотрел эту проблему в своей книге «Сознание, мозг и наука» (1984). Он утверждал, что программы могут имитировать мыслительные процессы человека, но только формально, т. е. «не понимая», что делают. Иными словами, такой интеллект просто следует набору правил (алгоритмов), не придавая им значения. Чтобы лучше проиллюстрировать свою точку зрения, он придумал мысленный эксперимент «Китайская комната».

ИИ2.jpg
Фото: thecollector.com

Сёрл предлагает представить себя запертым в комнате, где можно найти различные корзины с китайскими символами. В этой комнате также можно найти книгу правил на своём родном языке с инструкциями о том, как манипулировать китайскими иероглифами. Книга правил содержит только такие правила, как: «если вы видите символ [X], ответьте символом [Y]» и так далее. В этом смысле человек никогда не узнает значение этих китайских символов.

Предположим также, что кто-то за пределами комнаты подсунул вам под дверь комнаты сообщение из этих китайских иероглифов. Можно ответить на это сообщение, взяв символы из корзин, упорядочив их в соответствии со сводом правил и подсунув под дверь. Предположим, что инструкции настолько ясны и подробны, что очень скоро ответы человека в комнате станут неотличимы от ответов носителя языка. Человек за пределами комнаты теперь может подумать, что субъект в комнате понимает китайский язык и говорит на нём.

Затем Сёрл спрашивает: можно ли заключить, что человек в комнате знает китайский язык? Скорее всего, что нет. Сёрл пишет: «Понимание языка … требует большего, чем просто владения набором формальных символов. Это включает в себя интерпретацию или значение, придаваемое этим символам».

Затем оказывается, что путь к общему искусственному интеллекту заблокирован "врожденными" ограничениями. Сможет ли искусственный интеллект в конечном итоге преодолеть эти ограничения? Алгоритмы машинного обучения становятся всё более сложными, а объём информации в Интернете, используемой для обучения таких моделей, растёт в геометрической прогрессии.

Кажется, что это вопрос времени, когда ИИ сможет понимать язык, а не просто воспроизводить его. Вопрос не как, а когда.

Против этой точки зрения (также как и Сёрл) выступает Лучано Флориди, профессор Оксфордского университета. По его словам, независимо от технологических достижений, присущие ИИ ограничения останутся. Это похоже на умножение чисел на ноль: независимо от того, насколько велико число, результат всегда будет равен нулю.

ИИ1.jpg
Фото: thecollector.com

Возвращаясь к мысленному эксперименту Сёрла с китайской комнатой: даже если инструкция по эксплуатации станет более сложной, человек, находящийся в комнате, никогда не поймёт мандаринский китайский язык. С другой стороны, в китайской комнате Сёрла предполагалось, что люди снаружи убеждены, что вы свободно говорите на мандаринском диалекте. Разве не в этом весь смысл? Разве этого не будет достаточно? К примеру Алан Тьюринг, отец искусственного интеллекта, считал успехом уже то, что кто-то не может отличить человека от машины! Так может быть достаточно симуляции?

Примеры легко найти: виртуальный помощник Google может совершать телефонные звонки и назначать встречи, и люди не подозревают, что разговаривают с искусственным интеллектом; YouTubers взяли интервью у открытой модели ИИ GPT-3; наконец, вероятно, что люди взаимодействовали именно с чат-ботом, когда требовалась помощь с банком или заказом еды.

ИИ3.jpg
Фото: thecollector.com

Как сказал Тьюринг, это игра в имитацию. Тем не менее, одной имитационной игры недостаточно. Как упоминалось ранее, отдельные алгоритмы могут превосходить людей в некоторых задачах, но это не означает, что они думают или что они постоянно учатся. Сети глубокого обучения могут играть в шахматы (Deep Blue от IBM) или го (AlphaGo) или даже побеждать в телешоу Jeopardy (Watson от IBM), но никто из них не знает, что они играют в игру.

Кроме того, люди склонны забывать, что во время «противостояния» за ИИ, заставляющим всё работать, стоят десятки инженеров, математиков, программистов, кабелей, ноутбуков и так далее; они действительно великие кукловоды!

Интеллект - это больше, чем правильные ответы или расчёт правильного хода.

Как пишет Джефф Хокинс: «Мы умны не потому, что можем делать что-то особенно хорошо, а потому, что можем научиться делать практически всё».

Ключ находится в мозгу человека


Учитывая вышеизложенное, аргумент, выдвинутый «Китайской комнатой» Сёрла, остаётся в силе. Итак, если симуляции не соответствуют идеалам общего искусственного интеллекта и образам из научной фантастики, например, «Я-робот» (2004) или «Из машины» (2015), то каково будущее ИИ? Возможно, нужен другой подход. Когда Deep Blue от IBM выиграл у Гарри Каспарова в 1997 году, гроссмейстер шахмат сказал: «Всё, что мы делаем, если знаем, как это нужно сделать, машины сделают лучше».

ИИ4.jpg
Фото: thecollector.com

В словах Каспарова есть подсказка: можно ли систематизировать всё то, что делают люди. Дело в том, что человек всё ещё пытается понять, как действует разум. Многие аспекты познания остаются загадкой; человеку ещё предстоит систематизировать мыслительный процесс.

Может ли быть так, что путь к общему искусственному интеллекту закрыт из-за отсутствия ясности в отношении того, как работает мозг?

Такую позицию занял Джефф Хокинс в своей книге «Тысяча мозгов: новая теория интеллекта» (2021). Он считает, что ОИИ должен работать так же, как человеческий мозг, что включает в себя способность ориентироваться в пространстве, то есть иметь тело. Воплощение имеет решающее значение, потому что именно через тело работает мозг: люди учатся, прикасаясь, двигаясь, видя, слушая, исследуя, пробуя на вкус, интересуясь и т. д. Точно так же ОИИ потребуются датчики и движущиеся механизмы. При этом тело не обязательно должно быть человеческим; важна только способность исследовать мир и ориентироваться в нём. Вот почему нейробиологи, исследователи робототехники и разработчики ИИ должны работать вместе. Философское следствие из этой теории разрушает старый дуализм Рене Декарта: человек не может мыслить без тела.

Возвращаясь к «китайской комнате» Сёрла, любому ОИИ потребуется доступ к другой контекстуальной информации: когда используются эти символы? Как люди действуют, отправляя эти символы? Для расширения мысленного эксперимента потребуются экраны и датчики. Как можно было уже заметить, эти модификации связаны с характеристиками комнаты, а не с человеком, который находится внутри. Используя технические термины, речь идёт не только о том, как работает ЦП (центральный процессор), но и о взаимодействии с контекстом и навыках навигации, которые могут быть связаны с этим ЦП. Непреднамеренно китайская комната воспроизвела картезианское изображение интеллекта. Если бы эти модификации были сделаны, то нет причин, по которым комната в целом могла бы помешать понимать мандаринский диалект.

Последствия спора о «Китайской комнате»


Сёрл согласился бы с Хокинсом: если бы тайны мозга были раскрыты, ОИИ был бы возможен. Хокинс считает, что такие события произойдут в ближайшие два-три десятилетия. Всё зависит, во-первых, от выяснения того, как люди учатся и думают, а также от когнитивного взаимодействия между телами и окружающим контекстом. Что произойдёт дальше? Каковы будут последствия появления и развития ОИИ?

ИИ5.jpg
Фото: thecollector.com

По словам Макса Тегмарка, шведско-американского космолога и астрофизика, есть луддиты, которые считают, что последствия будут негативными для человечества, в то время как есть и цифровые утописты напротив, полагающие, что появление таких технологий знаменует собой начало лучших времён для всех.

Независимо от этих двух положений, одно можно сказать наверняка: человеческую способность думать и учиться не следует принимать как должное; ожидая появления у ИИ способности думать, необходимо продолжать исследовать человеческие возможности.

[FR] Sign up for our free weekly newsletter

[FR] Every week Jaaj.Club publishes many articles, stories and poems. Reading them all is a very difficult task. Subscribing to the newsletter will solve this problem: you will receive similar materials from the site on the selected topic for the last week by email.
[FR] Enter your Email
Хотите поднять публикацию в ТОП и разместить её на главной странице?

Мысленные эксперименты, которые заставляют задуматься

Большинство людей любят эксперименты. Но знаете ли вы, что эксперименты бывают не только реальные, но и мысленные? Вот несколько самых интересных мысленных экспериментов. Читать далее »

До Deep Blue: удивительный шахматный автомат

Многие знают о шахматном суперкомпьютере от компании IBM, однако шахматный автомат Иоганна Непомука Мельцеля опередил Deep Blue в области механики. Шах и мат. Читать далее »

Как пользоваться чат-ботом You.com с искусственным интеллектом

Иногда бот может начать диалог на английском, в таком случае просто напишите ему "Ответь по-русски", и далее диалог продолжится именно на великом и могучем. Читать далее »

Искусственный интеллект использует своё мастерство для создания новых структур белков

В прошлом году весной лаборатория искусственного интеллекта под названием OpenAI представила технологию, позволяющую создавать цифровые изображения, просто описывая то, что предполагается увидеть. Читать далее »

Комментарии

-Комментариев нет-