Могут ли компьютеры думать - Jaaj.Club
Poll
What is the most frightening thing in this story?


Events

07.09.2025 17:28
***

Started
from the publishing house Collection Jaaj.Club.

Write a science fiction story up to 1 author page and get a chance to be included in a collective collection and get reviewed by renowned authors.

Jury of the contest

Alexander Svistunov
Fantasy writer, member of the Union of Writers of Uzbekistan and the Council for Adventure and Fantastic Literature of the Union of Writers of Russia.

Katerina Popova
A modern writer working in the genre of mysticism, fantasy and adventure thriller. The author does not deprive her works of lightness, humor and self-irony.

Maria Kucherova
Poet and prose writer from Tashkent. The author works in the genres of mysticism, drama and thriller, creates a series of novels and novellas in a single fictional universe.

Konstantin Normaer
A writer working at the intersection of genres: from fantasy detective and steampunk to dark fantasy and mystical realism.

Yana Gros
Writer-prose writer, the main direction - grotesque, social satire, reaction to the processes that are happening today. Laureate and diploma winner of international competitions.

Jerome
Author of the "Lost Worlds" series, specializing in space fiction and time travel. Author of numerous science fiction stories.

Artyom Gorokhov
Artem Gorokhov
Writer-prose writer, author of novels and many works of small prose. The head of seminars of creative community of poets and prose writers.

Olga Sergeyeva
Author of the collection of fantastic stories "Signal". Master of science fiction and mysticism, exploring time, memory and the limits of human possibilities.

***
12.08.2025 18:44
***

On Sale!

Echo of Destruction is a new post-apocalyptic novel
Zoya Biryukova.

A post-catastrophe world, an ancient war between vampires and werewolves, and a ritual that will decide the fate of humanity.


Zoya Biryukova is a gamer and dark fantasy fan. Her love for the worlds of vampires and werewolves inspired her to create her own story about the post-apocalypse and ancient powers.

***
02.07.2025 20:55
***

Already on sale!

A new story from Katerina Popova in a mystical novel


Anybody Alive? - Katerina Popova read online

***

Comments

Благодарю
28.10.2025 Болеслав
Благодарю
28.10.2025 Болеслав
Интересная идея!
28.10.2025 Jaaj.Club
Очень грамотно и интересно раскрыта не совсем новая, но животрепещущая для научной фантастики тема, отчего общая оценка только выигрывает! Большое спасибо!
28.10.2025 Formica
Коротко, но настолько интригующе. Хочется полной развёрнутой истории.
28.10.2025 Palevka-89

Могут ли компьютеры думать

20.10.2022 Рубрика: High tech
Автор: vassyap
23091 0 0 31 1289
Вопросы о машинном интеллекте существуют давно. Так ещё в 1950 году британский математик Алан Тьюринг придумал способ проверки разумности компьютера. Он назвал это «игрой в имитацию». Сегодня мы называем это тестом Тьюринга.
Могут ли компьютеры думать
фото: habr.com
Сегодня нас окружают так называемые умные устройства. Alexa воспроизводит музыку по нашему запросу, а Siri может сообщить, кто выиграл вчерашний футбольный матч и пойдёт ли сегодня дождь. Но действительно ли эти устройства умны? И что вообще значит для компьютера быть разумным?

Вопросы о машинном интеллекте существуют давно. Так ещё в 1950 году британский математик Алан Тьюринг придумал способ проверки разумности компьютера. Он назвал это «игрой в имитацию». Сегодня мы называем это тестом Тьюринга.

Игра проходит так: кто-то - назовём его игроком А - сидит один в комнате и пишет сообщения двум другим игрокам - назовём их B и C. Один из этих игроков - человек, другой - компьютер. Задача игрока А состоит в том, чтобы определить, кто из игроков (В или С) человек.

Тьюринг представил свою игровую идею в статье 1950 года в журнале Mind, а начал её такими словами: «Я предлагаю рассмотреть вопрос: Могут ли машины мыслить?» Это был смелый вопрос, учитывая, что компьютеров, какими мы их знаем сейчас, в тот момент не существовало. Но Тьюринг ещё в 1936 году работал над идеей первого компьютера, который смог бы работать под управлением программного обеспечения. Таким образом этот компьютер потенциально смог бы делать всё, что от него требуется при наличии правильных инструкций. И хотя этот компьютер так и не был построен, именно разработки Тьюринга привели непосредственно к сегодняшним компьютерам. При этом сам Тьюринг верил, что однажды вычислительные машины станут достаточно сложными, чтобы начать по-настоящему мыслить.

1_1.jpg
Фото: kv.by

По словам Аянны Ховард (робототехника из Университета штата Огайо, которая изучает взаимодействие роботов и людей), Тьюринг понимал трудность описания того, что на самом деле считается мышлением.

Причина такой сложности состоит прежде всего в том, что мы сами не до конца понимаем механизм человеческого мышления.

В то же время игра в имитацию, придуманная Тьюрингом, оказалась разумным способом обойти эту проблему. В рамках его концепции предполагается, что если компьютер ведёт себя так, будто он думает, то можно предположить, что это действительно так. Это может показаться странным, однако с людьми мы фактически поступаем также, ведь у нас нет возможности узнать, что именно творится у них в головах. Потому если кажется, что люди думают, мы предполагаем, что это действительно так. Тьюринг же фактически предложил использовать тот же подход при оценке компьютеров. Таким образом - чтобы компьютер мог заставить кого-то поверить в то, что он человек - он должен думать как человек. Считается, что компьютер прошёл тест, если смог убедить людей в том что он человек в 30 процентах случаев. При этом сам Тьюринг полагал, что к 2000 году с этим сможет справиться любой компьютер. За прошедшие десятилетия многие машины приняли этот вызов, однако их результаты оказались сомнительными, потому некоторые исследователи начали сомневаться в целесообразности применения теста Тьюринга для оценки интеллекта машин.

В то время, когда Тьюринг предложил свою имитацию игры, это был всего лишь мысленный эксперимент, ведь тогда ещё не было компьютеров, которые могли бы это воспроизвести. Однако, с тех пор искусственный интеллект (ИИ), прошёл долгий путь в своём развитии.

В середине 1960-х годов исследователь по имени Джозеф Вейценбаум создал программу под названием Элиза (ELIZA). Она следовала очень простому набору правил: Элиза фактически повторяла любой вопрос, который ей задавали, перефразировав его имитируя диалог психотерапевта с пациентом. Например, если вы сказали Элизе: «Я боюсь, что могу провалить тест по математике», она могла ответить: «Как вы думаете, вы можете провалить тест по математике?». Затем, если вы скажете: «Да, я думаю, что мог бы», Элиза может сказать что-то вроде: «Почему ты так думаешь?». Таким образом Элиза никогда не говорила ничего, кроме стандартных ответов и переформулирования того, что говорили ей люди. При этом Элиза никогда не проходила тест Тьюринга. Но, возможно, смогла бы, потому как многие люди, которые с ней взаимодействовали считали, что получают ответы от настоящего эксперта. Сам Вейценбаум был в ужасе от того, как много людей считали Элизу разумной причём даже после объяснения того, как «она» работает.

picture2_iskusstvennyj-int_343330_p0.jpg
Фото: kv.by

В 2014 году во время соревнований по прохождению теста Тьюринга программа чат-бота с искусственным интеллектом под названием Eugene Goostman по пять минут «разговаривала» с каждым из 30 судей. При этом ей удалось убедить 10 из них, что это человек. Казалось бы, этого достаточно, чтобы пройти тест Тьюринга. Однако выяснилось, что чат-бот использовал несколько трюков потому, некоторые эксперты считают, что бот победил нечестно. В частности, программа представлялась тринадцатилетним мальчиком Женей из Украины, который говорил на английском языке.

При этом малый возраст Жени и плохое знание английского языка могли объяснить некоторые вещи, которые в противном случае могли бы показаться судьям подозрительными.

В 2018 году Google анонсировал новую программу искусственного интеллекта для персональных помощников Google Duplex. При этом Duplex не участвовал в соревнованиях по прохождению теста Тьюринга, однако Google продемонстрировал возможности этой технологии, заставив ИИ позвонить в парикмахерскую и назначить встречу. В свою очередь администратор, отвечавший на звонок, похоже, не понял, что разговаривает с компьютером. В другой раз Duplex позвонил в ресторан, чтобы забронировать столик и снова человек, который ответил на звонок, похоже, не заметил ничего странного. Однако стоит указать, что это были короткие диалоги и в отличие от настоящего теста Тьюринга, люди, отвечавшие на звонок, не пытались определить, был ли звонивший человеком.

Тест Тьюринга дал пищу для размышлений следующим поколениям исследователей ИИ, а также вызвал много критики, но на текущий момент большинство учёных сходятся во мнении, что современные компьютерные программы, вероятно, пока не способны полноценно его пройти.

По словам Джона Лэрда (учёного, который до выхода на пенсию большую часть своей карьеры работал над созданием ИИ для решения различных задач) программы, пытающиеся пройти тест Тьюринга, не настолько умны, как могли бы быть. Они пытаются казаться более человечными, делать ошибки (например, орфографические или математические), что может помочь убедить кого-то, в их разумности, однако не имеет ценности для учёных, работающих в области развития ИИ.

Гектор Левеск (исследователь ИИ из Университета Торонто) также раскритиковал этот тест. В своей статье 2014 года он утверждал, что с целью прохождения теста Тьюринга программисты вынуждены использовать «дешёвые трюки» при создании ИИ подобных Элизе и Eugene Goostman, которые в целом способны обмануть, но при этом не обязательно окажутся действительно разумными и полезными.

w12_1535637577-1140x570.jpg
Фото: kv.by

Тем не менее, похоже, что некоторые современные программы искусственного интеллекта всё же могут пройти этот тест.

На данный момент, возможно, что лучшими претендентами на эту кандидатуру станут большие языковые модели (LLM), которые являются разновидностью ИИ.

Исследователи обучают эти компьютерные программы использовать язык, передавая им огромные объёмы данных. Эти данные поступают из книг, статей в газетах, блогов и социальных сетей. Обучение ИИ в этом случае проходит примерно так: исследователи дают компьютеру предложение, в котором пропущено слово, при этом он должен угадать какое слово пропущено. После обучения такие программы могут писать сообщения в блогах или резюмировать новостную статью, а некоторые даже научились писать программный код. Многие из нас взаимодействуют с подобной технологией, когда набирают текстовое сообщение используя функцию автозаполнения, при этом реальные LLM намного мощнее.

В данный момент достаточно трудно сказать, действительно ли какой-либо из созданных ИИ прошёл (или может пройти) тест Тьюринга. Кроме того, как утверждают Лэрд и другие, сам тест может не иметь значения, но тем не менее, Тьюринг и его тест уже смогли заставить учёных и общественность ещё раз задуматься о том, что значит быть разумным и в конечном итоге что значит быть человеком.

Sign up for our free weekly newsletter

Every week Jaaj.Club publishes many articles, stories and poems. Reading them all is a very difficult task. Subscribing to the newsletter will solve this problem: you will receive similar materials from the site on the selected topic for the last week by email.
Enter your Email
Хотите поднять публикацию в ТОП и разместить её на главной странице?

Роботы пишут стихи. Что это значит для будущего искусства

Учёные-компьютерщики пытались заставить машины писать стихи по крайней мере с 1960-х годов, и Racter был уникальным примером того, как что-то бессмысленное может создать что-то значимое. Читать далее »

Опасность передового искусственного интеллекта, контролирующего собственную обратную связь

То, что учёные сейчас называют проблемой обучения с подкреплением, впервые было рассмотрено в 1933 году патологом Уильямом Томпсоном. Читать далее »

Искусственный интеллект может слышать

С помощью вычислительного метода, команда попыталась расшифровать то, что участники слышали, используя всего три секунды данных об активности мозга каждого из них. Читать далее »

Комментарии

-Комментариев нет-