Философ Джон Сёрл утверждает, что ИИ может только имитировать сознание, а не мыслить подтверждая это с помощью своего знаменитого мысленного эксперимента «Китайская комната». Использование искусственного интеллекта для самых разных целей становится всё более популярным. От беспилотных автомобилей до создания отмеченных наградами картинок, анализа миллиардов твитов и (как это ни парадоксально) написания целых статей. Никто не может отрицать, что растущее производство цифровых данных и достижения в области вычислительной техники изменили повседневную жизнь людей и их мнение об искусственном интеллекте.
Некоторые учёные, такие как Николас Кристакис (греко-американский социолог), называют ИИ одной из радикальных технологий, которые навсегда изменят человеческие взаимодействия. Тем не менее, впереди ещё долгий путь; а известный философ Джон Сёрл утверждает, что ИИ никогда не сможет думать так, как люди. Чтобы продемонстрировать это, он создал пресловутый аргумент о китайской комнате, оказавший большое влияние на современную философию.
Два типа ИИ
На этом этапе полезно показать различие между искусственным интеллектом (ИИ) и общим искусственным интеллектом (ОИИ). Большинство из людей уже взаимодействуют с тем или иным типом искусственного интеллекта. В первом случае компьютеры и машины в узком смысле имитируют человеческий интеллект; например, ИИ может хорошо фильтровать и анализировать миллиарды слов в Твиттере, но очень плохо понимать шутку; хорошо водить машину или играть в шахматы, но не то и другое одновременно. Таким образом, ограничением ИИ является отсутствие гибкости и отсутствие непрерывного обучения; модели должны быть обучены, прежде чем их можно будет применить.
Джефф Хокинс, предприниматель и нейробиолог, объясняет, что, в отличие от ИИ, цель ОИИ заключается в создании «машин, которые могут быстро обучаться новым задачам, видеть аналогии между разными задачами и гибко решать новые проблемы». И тут натыкаешься на философскую дискуссию: возможен ли вообще такой ОИИ? При этом исследователей не интересует, будет ли этот «Разум» хорошим или плохим (с моральной точки зрения), порождит утопии или антиутопии; скорее, они исследуют саму возможность создания такого Разума.
Аргумент Сёрла
Философ Джон Сёрл, находящийся под влиянием более поздней философии Витгенштейна, рассмотрел эту проблему в своей книге «Сознание, мозг и наука» (1984). Он утверждал, что программы могут имитировать мыслительные процессы человека, но только формально, т. е. «не понимая», что делают. Иными словами, такой интеллект просто следует набору правил (алгоритмов), не придавая им значения. Чтобы лучше проиллюстрировать свою точку зрения, он придумал мысленный эксперимент «Китайская комната».
Фото: thecollector.com
Сёрл предлагает представить себя запертым в комнате, где можно найти различные корзины с китайскими символами. В этой комнате также можно найти книгу правил на своём родном языке с инструкциями о том, как манипулировать китайскими иероглифами. Книга правил содержит только такие правила, как: «если вы видите символ [X], ответьте символом [Y]» и так далее. В этом смысле человек никогда не узнает значение этих китайских символов.
Предположим также, что кто-то за пределами комнаты подсунул вам под дверь комнаты сообщение из этих китайских иероглифов. Можно ответить на это сообщение, взяв символы из корзин, упорядочив их в соответствии со сводом правил и подсунув под дверь. Предположим, что инструкции настолько ясны и подробны, что очень скоро ответы человека в комнате станут неотличимы от ответов носителя языка. Человек за пределами комнаты теперь может подумать, что субъект в комнате понимает китайский язык и говорит на нём.
Затем Сёрл спрашивает: можно ли заключить, что человек в комнате знает китайский язык? Скорее всего, что нет. Сёрл пишет: «Понимание языка … требует большего, чем просто владения набором формальных символов. Это включает в себя интерпретацию или значение, придаваемое этим символам».
Затем оказывается, что путь к общему искусственному интеллекту заблокирован "врожденными" ограничениями. Сможет ли искусственный интеллект в конечном итоге преодолеть эти ограничения? Алгоритмы машинного обучения становятся всё более сложными, а объём информации в Интернете, используемой для обучения таких моделей, растёт в геометрической прогрессии.
Кажется, что это вопрос времени, когда ИИ сможет понимать язык, а не просто воспроизводить его. Вопрос не как, а когда.
Против этой точки зрения (также как и Сёрл) выступает Лучано Флориди, профессор Оксфордского университета. По его словам, независимо от технологических достижений, присущие ИИ ограничения останутся. Это похоже на умножение чисел на ноль: независимо от того, насколько велико число, результат всегда будет равен нулю.
Фото: thecollector.com
Возвращаясь к мысленному эксперименту Сёрла с китайской комнатой: даже если инструкция по эксплуатации станет более сложной, человек, находящийся в комнате, никогда не поймёт мандаринский китайский язык. С другой стороны, в китайской комнате Сёрла предполагалось, что люди снаружи убеждены, что вы свободно говорите на мандаринском диалекте. Разве не в этом весь смысл? Разве этого не будет достаточно? К примеру
Алан Тьюринг,
отец искусственного интеллекта, считал успехом уже то, что кто-то не может отличить человека от машины! Так может быть достаточно симуляции?
Примеры легко найти: виртуальный помощник Google может совершать телефонные звонки и назначать встречи, и люди не подозревают, что разговаривают с искусственным интеллектом; YouTubers взяли интервью у открытой модели ИИ GPT-3; наконец, вероятно, что люди взаимодействовали именно с чат-ботом, когда требовалась помощь с банком или заказом еды.
Как сказал Тьюринг, это игра в имитацию. Тем не менее, одной имитационной игры недостаточно. Как упоминалось ранее, отдельные алгоритмы могут превосходить людей в некоторых задачах, но это не означает, что они думают или что они постоянно учатся. Сети глубокого обучения могут играть в шахматы (Deep Blue от IBM) или го (AlphaGo) или даже побеждать в телешоу Jeopardy (Watson от IBM), но никто из них не знает, что они играют в игру.
Кроме того, люди склонны забывать, что во время «противостояния» за ИИ, заставляющим всё работать, стоят десятки инженеров, математиков, программистов, кабелей, ноутбуков и так далее; они действительно великие кукловоды!
Интеллект - это больше, чем правильные ответы или расчёт правильного хода.
Как пишет Джефф Хокинс: «Мы умны не потому, что можем делать что-то особенно хорошо, а потому, что можем научиться делать практически всё».
Ключ находится в мозгу человека
Учитывая вышеизложенное, аргумент, выдвинутый «Китайской комнатой» Сёрла, остаётся в силе. Итак, если симуляции не соответствуют идеалам общего искусственного интеллекта и образам из научной фантастики, например, «Я-робот» (2004) или «Из машины» (2015), то каково будущее ИИ? Возможно, нужен другой подход. Когда Deep Blue от IBM выиграл у Гарри Каспарова в 1997 году, гроссмейстер шахмат сказал: «Всё, что мы делаем, если знаем, как это нужно сделать, машины сделают лучше».
Фото: thecollector.com
В словах Каспарова есть подсказка: можно ли систематизировать всё то, что делают люди. Дело в том, что человек всё ещё пытается понять, как действует разум. Многие аспекты познания остаются загадкой; человеку ещё предстоит систематизировать мыслительный процесс.
Может ли быть так, что путь к общему искусственному интеллекту закрыт из-за отсутствия ясности в отношении того, как работает мозг?
Такую позицию занял Джефф Хокинс в своей книге «Тысяча мозгов: новая теория интеллекта» (2021). Он считает, что ОИИ должен работать так же, как человеческий мозг, что включает в себя способность ориентироваться в пространстве, то есть иметь тело. Воплощение имеет решающее значение, потому что именно через тело работает мозг: люди учатся, прикасаясь, двигаясь, видя, слушая, исследуя, пробуя на вкус, интересуясь и т. д. Точно так же ОИИ потребуются датчики и движущиеся механизмы. При этом тело не обязательно должно быть человеческим; важна только способность исследовать мир и ориентироваться в нём. Вот почему нейробиологи, исследователи робототехники и разработчики ИИ должны работать вместе. Философское следствие из этой теории разрушает старый дуализм Рене Декарта: человек не может мыслить без тела.
Возвращаясь к «китайской комнате» Сёрла, любому ОИИ потребуется доступ к другой контекстуальной информации: когда используются эти символы? Как люди действуют, отправляя эти символы? Для расширения мысленного эксперимента потребуются экраны и датчики. Как можно было уже заметить, эти модификации связаны с характеристиками комнаты, а не с человеком, который находится внутри. Используя технические термины, речь идёт не только о том, как работает ЦП (центральный процессор), но и о взаимодействии с контекстом и навыках навигации, которые могут быть связаны с этим ЦП. Непреднамеренно китайская комната воспроизвела картезианское изображение интеллекта. Если бы эти модификации были сделаны, то нет причин, по которым комната в целом могла бы помешать понимать мандаринский диалект.
Последствия спора о «Китайской комнате»
Сёрл согласился бы с Хокинсом: если бы тайны мозга были раскрыты, ОИИ был бы возможен. Хокинс считает, что такие события произойдут в ближайшие два-три десятилетия. Всё зависит, во-первых, от выяснения того, как люди учатся и думают, а также от когнитивного взаимодействия между телами и окружающим контекстом. Что произойдёт дальше? Каковы будут последствия появления и развития ОИИ?
Фото: thecollector.com
По словам Макса Тегмарка, шведско-американского космолога и астрофизика, есть луддиты, которые считают, что последствия будут негативными для человечества, в то время как есть и цифровые утописты напротив, полагающие, что появление таких технологий знаменует собой начало лучших времён для всех.
Независимо от этих двух положений, одно можно сказать наверняка: человеческую способность думать и учиться не следует принимать как должное; ожидая появления у ИИ способности думать, необходимо продолжать исследовать человеческие возможности.