Для судейства Битв Авторов необходимо авторизоваться и достичь 15-го писательского уровня.

ЧЕМП 2024

Флаг LISKI[34]
1623
Флаг Auster[38]
618
Флаг Aist[39]
476
Флаг Jaaj.Club[42]
406
Флаг Palevka-89[38]
361
Флаг ka4ka[28]
173
Флаг gibulkaknop17[15]
151
Флаг tarakan[28]
131
Флаг boris[28]
116
Флаг BasK[10]
108

События

10.05.2024 22:40
***

Технические работы

10-12 Мая

***
29.04.2024 20:40
* * *

Возвращена старая система Зрительских Симпатий.

Теперь читатели могут отблагодарить автора не только добрым словом, но и звонкой монетой, перечислив ему выбранную сумму тяжеленных золотых клубных монет.

Опция Зрительские Симпатии доступна на странице публикации над комментариями.

Зрительские Симпатии, оставленные неавторизованными пользователями, монет не добавляют и не убавляют, но автор получает сигнал о вашей признательности.

* * *
29.04.2024 20:27
  

Открыта регистрация на майские турниры



  

Турнир на оборот, который посвящён юмористической тематике.


  

Регулярный Клубный Чемпионат 2024 продолжается, теперь таблица счёта всегда доступна в левой колонке.

  

Комментарии

Интересным решением являются удобрения в виде палочек, которые, как и препараты медленного действия, понемногу высвобождают необходимые вещества в субстрат.
17.05.2024 ka4ka
Интересная получилась прогулка. Спасибо! Ташкентский муниципалитет должен доплачивать вам за такие, вдохновляющие туристов, статьи :)
17.05.2024 Jaaj.Club
Вот про тату, прямо в точку)))
16.05.2024 Palevka-89
Сказав “пpoщай” своей удаче,
Утpaчу я ключи от миpa благ.
13.05.2024 LISKI
Отличная художественная реализация игры. Особенно понравится фанатам Fallout. Удалось передать атмосферу практически на 100%, особенно захватывают игровые локации типа Red Rocket и всякие предметы.

Однозначно вначале играть, причём все части ;) потом сделать тату, а дальше уже и сериал можно глянуть под нуку-колу. Fallout
13.05.2024 Jaaj.Club

Опрос

Какой вид занятий спортом вы предпочитаете?


18.02.2023 Рубрика: Компьютеры

Имитация разума, или мысленный эксперимент «Китайская комната»

Автор: vassyap
Использование искусственного интеллекта для самых разных целей становится всё более популярным. От беспилотных автомобилей до создания картинок и даже написания целых статей. Кажется, что это вопрос времени, когда ИИ сможет понимать язык, а не просто воспроизводить его. Вопрос не как, а когда.
13696 0 0 20 1582
Имитация разума, или мысленный эксперимент «Китайская комната»
фото: dns-shop.ru
Философ Джон Сёрл утверждает, что ИИ может только имитировать сознание, а не мыслить подтверждая это с помощью своего знаменитого мысленного эксперимента «Китайская комната». Использование искусственного интеллекта для самых разных целей становится всё более популярным. От беспилотных автомобилей до создания отмеченных наградами картинок, анализа миллиардов твитов и (как это ни парадоксально) написания целых статей. Никто не может отрицать, что растущее производство цифровых данных и достижения в области вычислительной техники изменили повседневную жизнь людей  и их мнение об искусственном интеллекте.

Некоторые учёные, такие как Николас Кристакис (греко-американский социолог), называют ИИ одной из радикальных технологий, которые навсегда изменят человеческие взаимодействия. Тем не менее, впереди ещё долгий путь; а известный философ Джон Сёрл утверждает, что ИИ никогда не сможет думать так, как люди. Чтобы продемонстрировать это, он создал пресловутый аргумент о китайской комнате, оказавший большое влияние на современную философию.

Два типа ИИ


На этом этапе полезно показать различие между искусственным интеллектом (ИИ) и общим искусственным интеллектом (ОИИ). Большинство из людей уже взаимодействуют с тем или иным типом искусственного интеллекта. В первом случае компьютеры и машины в узком смысле имитируют человеческий интеллект; например, ИИ может хорошо фильтровать и анализировать миллиарды слов в Твиттере, но очень плохо понимать шутку; хорошо водить машину или играть в шахматы, но не то и другое одновременно. Таким образом, ограничением ИИ является отсутствие гибкости и отсутствие непрерывного обучения; модели должны быть обучены, прежде чем их можно будет применить.

Джефф Хокинс, предприниматель и нейробиолог, объясняет, что, в отличие от ИИ, цель ОИИ заключается в создании «машин, которые могут быстро обучаться новым задачам, видеть аналогии между разными задачами и гибко решать новые проблемы». И тут натыкаешься на философскую дискуссию: возможен ли вообще такой ОИИ? При этом исследователей не интересует, будет ли этот «Разум» хорошим или плохим (с моральной точки зрения), порождит утопии или антиутопии; скорее, они исследуют саму возможность создания такого Разума.

Аргумент Сёрла


Философ Джон Сёрл, находящийся под влиянием более поздней философии Витгенштейна, рассмотрел эту проблему в своей книге «Сознание, мозг и наука» (1984). Он утверждал, что программы могут имитировать мыслительные процессы человека, но только формально, т. е. «не понимая», что делают. Иными словами, такой интеллект просто следует набору правил (алгоритмов), не придавая им значения. Чтобы лучше проиллюстрировать свою точку зрения, он придумал мысленный эксперимент «Китайская комната».

ИИ2.jpg
Фото: thecollector.com

Сёрл предлагает представить себя запертым в комнате, где можно найти различные корзины с китайскими символами. В этой комнате также можно найти книгу правил на своём родном языке с инструкциями о том, как манипулировать китайскими иероглифами. Книга правил содержит только такие правила, как: «если вы видите символ [X], ответьте символом [Y]» и так далее. В этом смысле человек никогда не узнает значение этих китайских символов.

Предположим также, что кто-то за пределами комнаты подсунул вам под дверь комнаты сообщение из этих китайских иероглифов. Можно ответить на это сообщение, взяв символы из корзин, упорядочив их в соответствии со сводом правил и подсунув под дверь. Предположим, что инструкции настолько ясны и подробны, что очень скоро ответы человека в комнате станут неотличимы от ответов носителя языка. Человек за пределами комнаты теперь может подумать, что субъект в комнате понимает китайский язык и говорит на нём.

Затем Сёрл спрашивает: можно ли заключить, что человек в комнате знает китайский язык? Скорее всего, что нет. Сёрл пишет: «Понимание языка … требует большего, чем просто владения набором формальных символов. Это включает в себя интерпретацию или значение, придаваемое этим символам».

Затем оказывается, что путь к общему искусственному интеллекту заблокирован "врожденными" ограничениями. Сможет ли искусственный интеллект в конечном итоге преодолеть эти ограничения? Алгоритмы машинного обучения становятся всё более сложными, а объём информации в Интернете, используемой для обучения таких моделей, растёт в геометрической прогрессии.

Кажется, что это вопрос времени, когда ИИ сможет понимать язык, а не просто воспроизводить его. Вопрос не как, а когда.

Против этой точки зрения (также как и Сёрл) выступает Лучано Флориди, профессор Оксфордского университета. По его словам, независимо от технологических достижений, присущие ИИ ограничения останутся. Это похоже на умножение чисел на ноль: независимо от того, насколько велико число, результат всегда будет равен нулю.

ИИ1.jpg
Фото: thecollector.com

Возвращаясь к мысленному эксперименту Сёрла с китайской комнатой: даже если инструкция по эксплуатации станет более сложной, человек, находящийся в комнате, никогда не поймёт мандаринский китайский язык. С другой стороны, в китайской комнате Сёрла предполагалось, что люди снаружи убеждены, что вы свободно говорите на мандаринском диалекте. Разве не в этом весь смысл? Разве этого не будет достаточно? К примеру Алан Тьюринг, отец искусственного интеллекта, считал успехом уже то, что кто-то не может отличить человека от машины! Так может быть достаточно симуляции?

Примеры легко найти: виртуальный помощник Google может совершать телефонные звонки и назначать встречи, и люди не подозревают, что разговаривают с искусственным интеллектом; YouTubers взяли интервью у открытой модели ИИ GPT-3; наконец, вероятно, что люди взаимодействовали именно с чат-ботом, когда требовалась помощь с банком или заказом еды.

ИИ3.jpg
Фото: thecollector.com

Как сказал Тьюринг, это игра в имитацию. Тем не менее, одной имитационной игры недостаточно. Как упоминалось ранее, отдельные алгоритмы могут превосходить людей в некоторых задачах, но это не означает, что они думают или что они постоянно учатся. Сети глубокого обучения могут играть в шахматы (Deep Blue от IBM) или го (AlphaGo) или даже побеждать в телешоу Jeopardy (Watson от IBM), но никто из них не знает, что они играют в игру.

Кроме того, люди склонны забывать, что во время «противостояния» за ИИ, заставляющим всё работать, стоят десятки инженеров, математиков, программистов, кабелей, ноутбуков и так далее; они действительно великие кукловоды!

Интеллект - это больше, чем правильные ответы или расчёт правильного хода.

Как пишет Джефф Хокинс: «Мы умны не потому, что можем делать что-то особенно хорошо, а потому, что можем научиться делать практически всё».

Ключ находится в мозгу человека


Учитывая вышеизложенное, аргумент, выдвинутый «Китайской комнатой» Сёрла, остаётся в силе. Итак, если симуляции не соответствуют идеалам общего искусственного интеллекта и образам из научной фантастики, например, «Я-робот» (2004) или «Из машины» (2015), то каково будущее ИИ? Возможно, нужен другой подход. Когда Deep Blue от IBM выиграл у Гарри Каспарова в 1997 году, гроссмейстер шахмат сказал: «Всё, что мы делаем, если знаем, как это нужно сделать, машины сделают лучше».

ИИ4.jpg
Фото: thecollector.com

В словах Каспарова есть подсказка: можно ли систематизировать всё то, что делают люди. Дело в том, что человек всё ещё пытается понять, как действует разум. Многие аспекты познания остаются загадкой; человеку ещё предстоит систематизировать мыслительный процесс.

Может ли быть так, что путь к общему искусственному интеллекту закрыт из-за отсутствия ясности в отношении того, как работает мозг?

Такую позицию занял Джефф Хокинс в своей книге «Тысяча мозгов: новая теория интеллекта» (2021). Он считает, что ОИИ должен работать так же, как человеческий мозг, что включает в себя способность ориентироваться в пространстве, то есть иметь тело. Воплощение имеет решающее значение, потому что именно через тело работает мозг: люди учатся, прикасаясь, двигаясь, видя, слушая, исследуя, пробуя на вкус, интересуясь и т. д. Точно так же ОИИ потребуются датчики и движущиеся механизмы. При этом тело не обязательно должно быть человеческим; важна только способность исследовать мир и ориентироваться в нём. Вот почему нейробиологи, исследователи робототехники и разработчики ИИ должны работать вместе. Философское следствие из этой теории разрушает старый дуализм Рене Декарта: человек не может мыслить без тела.

Возвращаясь к «китайской комнате» Сёрла, любому ОИИ потребуется доступ к другой контекстуальной информации: когда используются эти символы? Как люди действуют, отправляя эти символы? Для расширения мысленного эксперимента потребуются экраны и датчики. Как можно было уже заметить, эти модификации связаны с характеристиками комнаты, а не с человеком, который находится внутри. Используя технические термины, речь идёт не только о том, как работает ЦП (центральный процессор), но и о взаимодействии с контекстом и навыках навигации, которые могут быть связаны с этим ЦП. Непреднамеренно китайская комната воспроизвела картезианское изображение интеллекта. Если бы эти модификации были сделаны, то нет причин, по которым комната в целом могла бы помешать понимать мандаринский диалект.

Последствия спора о «Китайской комнате»


Сёрл согласился бы с Хокинсом: если бы тайны мозга были раскрыты, ОИИ был бы возможен. Хокинс считает, что такие события произойдут в ближайшие два-три десятилетия. Всё зависит, во-первых, от выяснения того, как люди учатся и думают, а также от когнитивного взаимодействия между телами и окружающим контекстом. Что произойдёт дальше? Каковы будут последствия появления и развития ОИИ?

ИИ5.jpg
Фото: thecollector.com

По словам Макса Тегмарка, шведско-американского космолога и астрофизика, есть луддиты, которые считают, что последствия будут негативными для человечества, в то время как есть и цифровые утописты напротив, полагающие, что появление таких технологий знаменует собой начало лучших времён для всех.

Независимо от этих двух положений, одно можно сказать наверняка: человеческую способность думать и учиться не следует принимать как должное; ожидая появления у ИИ способности думать, необходимо продолжать исследовать человеческие возможности.
Хотите поднять публикацию в ТОП и разместить её на главной странице?

Мысленные эксперименты, которые заставляют задуматься

Большинство людей любят эксперименты. Но знаете ли вы, что эксперименты бывают не только реальные, но и мысленные? Вот несколько самых интересных мысленных экспериментов. Читать далее »

Как пользоваться чат-ботом You.com с искусственным интеллектом

Иногда бот может начать диалог на английском, в таком случае просто напишите ему "Ответь по-русски", и далее диалог продолжится именно на великом и могучем. Читать далее »

Искусственный интеллект использует своё мастерство для создания новых структур белков

В прошлом году весной лаборатория искусственного интеллекта под названием OpenAI представила технологию, позволяющую создавать цифровые изображения, просто описывая то, что предполагается увидеть. Читать далее »

Комментарии

-Комментариев нет-