Сегодня нас окружают так называемые умные устройства. Alexa воспроизводит музыку по нашему запросу, а Siri может сообщить, кто выиграл вчерашний футбольный матч и пойдёт ли сегодня дождь. Но действительно ли эти устройства умны? И что вообще значит для компьютера быть разумным?
Вопросы о
машинном интеллекте существуют давно. Так ещё в 1950 году британский математик
Алан Тьюринг придумал способ проверки разумности компьютера. Он назвал это «игрой в имитацию». Сегодня мы называем это тестом Тьюринга.
Игра проходит так: кто-то - назовём его игроком А - сидит один в комнате и пишет сообщения двум другим игрокам - назовём их B и C. Один из этих игроков - человек, другой - компьютер. Задача игрока А состоит в том, чтобы определить, кто из игроков (В или С) человек.
Тьюринг представил свою игровую идею в статье 1950 года в журнале Mind, а начал её такими словами: «Я предлагаю рассмотреть вопрос: Могут ли машины мыслить?» Это был смелый вопрос, учитывая, что компьютеров, какими мы их знаем сейчас, в тот момент не существовало. Но Тьюринг ещё в 1936 году работал над идеей первого компьютера, который смог бы работать под управлением программного обеспечения. Таким образом этот компьютер потенциально смог бы делать всё, что от него требуется при наличии правильных инструкций. И хотя этот компьютер так и не был построен, именно разработки Тьюринга привели непосредственно к сегодняшним компьютерам. При этом сам Тьюринг верил, что однажды вычислительные машины станут достаточно сложными, чтобы начать по-настоящему мыслить.
Фото: kv.by
По словам Аянны Ховард (робототехника из Университета штата Огайо, которая изучает взаимодействие роботов и людей), Тьюринг понимал трудность описания того, что на самом деле считается мышлением.
Причина такой сложности состоит прежде всего в том, что мы сами не до конца понимаем механизм человеческого мышления.
В то же время игра в имитацию, придуманная Тьюрингом, оказалась разумным способом обойти эту проблему. В рамках его концепции предполагается, что если компьютер ведёт себя так, будто он думает, то можно предположить, что это действительно так. Это может показаться странным, однако с людьми мы фактически поступаем также, ведь у нас нет возможности узнать, что именно творится у них в головах. Потому если кажется, что люди думают, мы предполагаем, что это действительно так. Тьюринг же фактически предложил использовать тот же подход при оценке компьютеров. Таким образом - чтобы компьютер мог заставить кого-то поверить в то, что он человек - он должен думать как человек. Считается, что компьютер прошёл тест, если смог убедить людей в том что он человек в 30 процентах случаев. При этом сам Тьюринг полагал, что к 2000 году с этим сможет справиться любой компьютер. За прошедшие десятилетия многие машины приняли этот вызов, однако их результаты оказались сомнительными, потому некоторые исследователи начали сомневаться в целесообразности применения теста Тьюринга для оценки интеллекта машин.
В то время, когда Тьюринг предложил свою имитацию игры, это был всего лишь мысленный эксперимент, ведь тогда ещё не было компьютеров, которые могли бы это воспроизвести. Однако, с тех пор искусственный интеллект (ИИ), прошёл долгий путь в своём развитии.
В середине 1960-х годов исследователь по имени Джозеф Вейценбаум создал программу под названием Элиза (ELIZA). Она следовала очень простому набору правил: Элиза фактически повторяла любой вопрос, который ей задавали, перефразировав его имитируя диалог психотерапевта с пациентом. Например, если вы сказали Элизе: «Я боюсь, что могу провалить тест по математике», она могла ответить: «Как вы думаете, вы можете провалить тест по математике?». Затем, если вы скажете: «Да, я думаю, что мог бы», Элиза может сказать что-то вроде: «Почему ты так думаешь?». Таким образом Элиза никогда не говорила ничего, кроме стандартных ответов и переформулирования того, что говорили ей люди. При этом Элиза никогда не проходила тест Тьюринга. Но, возможно, смогла бы, потому как многие люди, которые с ней взаимодействовали считали, что получают ответы от настоящего эксперта. Сам Вейценбаум был в ужасе от того, как много людей считали Элизу разумной причём даже после объяснения того, как «она» работает.
Фото: kv.by
В 2014 году во время соревнований по прохождению теста Тьюринга программа чат-бота с искусственным интеллектом под названием Eugene Goostman по пять минут «разговаривала» с каждым из 30 судей. При этом ей удалось убедить 10 из них, что это человек. Казалось бы, этого достаточно, чтобы пройти тест Тьюринга. Однако выяснилось, что чат-бот использовал несколько трюков потому, некоторые эксперты считают, что бот победил нечестно. В частности, программа представлялась тринадцатилетним мальчиком Женей из Украины, который говорил на английском языке.
При этом малый возраст Жени и плохое знание английского языка могли объяснить некоторые вещи, которые в противном случае могли бы показаться судьям подозрительными.
В 2018 году Google анонсировал новую программу искусственного интеллекта для персональных помощников Google Duplex. При этом Duplex не участвовал в соревнованиях по прохождению теста Тьюринга, однако Google продемонстрировал возможности этой технологии, заставив ИИ позвонить в парикмахерскую и назначить встречу. В свою очередь администратор, отвечавший на звонок, похоже, не понял, что разговаривает с компьютером. В другой раз Duplex позвонил в ресторан, чтобы забронировать столик и снова человек, который ответил на звонок, похоже, не заметил ничего странного. Однако стоит указать, что это были короткие диалоги и в отличие от настоящего теста Тьюринга, люди, отвечавшие на звонок, не пытались определить, был ли звонивший человеком.
Тест Тьюринга дал пищу для размышлений следующим поколениям исследователей ИИ, а также вызвал много критики, но на текущий момент большинство учёных сходятся во мнении, что современные компьютерные программы, вероятно, пока не способны полноценно его пройти.
По словам Джона Лэрда (учёного, который до выхода на пенсию большую часть своей карьеры работал над созданием ИИ для решения различных задач) программы, пытающиеся пройти тест Тьюринга, не настолько умны, как могли бы быть. Они пытаются казаться более человечными, делать ошибки (например, орфографические или математические), что может помочь убедить кого-то, в их разумности, однако не имеет ценности для учёных, работающих в области развития ИИ.
Гектор Левеск (исследователь ИИ из Университета Торонто) также раскритиковал этот тест. В своей статье 2014 года он утверждал, что с целью прохождения теста Тьюринга программисты вынуждены использовать «дешёвые трюки» при создании ИИ подобных Элизе и Eugene Goostman, которые в целом способны обмануть, но при этом не обязательно окажутся действительно разумными и полезными.
Фото: kv.by
Тем не менее, похоже, что некоторые современные программы искусственного интеллекта всё же могут пройти этот тест.
На данный момент, возможно, что лучшими претендентами на эту кандидатуру станут большие языковые модели (LLM), которые являются разновидностью ИИ.
Исследователи обучают эти компьютерные программы использовать язык, передавая им огромные объёмы данных. Эти данные поступают из книг, статей в газетах, блогов и социальных сетей. Обучение ИИ в этом случае проходит примерно так: исследователи дают компьютеру предложение, в котором пропущено слово, при этом он должен угадать какое слово пропущено. После обучения такие программы могут писать сообщения в блогах или резюмировать новостную статью, а некоторые даже научились писать программный код. Многие из нас взаимодействуют с подобной технологией, когда набирают текстовое сообщение используя функцию автозаполнения, при этом реальные LLM намного мощнее.
В данный момент достаточно трудно сказать, действительно ли какой-либо из созданных ИИ прошёл (или может пройти) тест Тьюринга. Кроме того, как утверждают Лэрд и другие, сам тест может не иметь значения, но тем не менее, Тьюринг и его тест уже смогли заставить учёных и общественность ещё раз задуматься о том, что значит быть разумным и в конечном итоге что значит быть человеком.