Опасность передового искусственного интеллекта, контролирующего собственную обратную связь - Jaaj.Club
Для судейства Битв Авторов необходимо авторизоваться и достичь 15-го писательского уровня.

ЧЕМП 2024

Флаг LISKI[34]
2695
Флаг Auster[38]
1671
Флаг Jaaj.Club[42]
1401
Флаг Palevka-89[38]
620
Флаг Aist[39]
544
Флаг ka4ka[28]
448
Флаг tarakan[28]
426
Флаг Don Quijote[10]
217
Флаг gibulkaknop17[16]
205
Флаг BasK[10]
183

События

28.10.2024 12:17
***

Новая книга в издательстве "Коллекция Jaaj.Club" – "Дети Моря" от Елены Виховской уже в продаже!

Дети Моря - Елена Виховская

Не упустите возможность стать одним из первых читателей книги "Дети Моря" и окунуться в пучину захватывающих морских приключений.

***
25.06.2024 07:23
* * *

1 августа 2024 года
Jaaj.Club уходит в отпуск.

Отпуск Jaaj.Club

Что это значит, читайте в опубликованном анонсе.

* * *

Комментарии

Интересная статья, как раз изучал эту территорию, чтобы пересечь Амазонию.

Спасибо!
20.11.2024 Jaaj.Club
Светлана Поделинская:
Одна из самых необычных и захватывающих книг, которые я читала.

Рина - нетипичная героиня: взрослая женщина, учёный-гидролог. Ее манят глубины и подводный мир, однако и тут её отличает научный подход: любую интересную живность Рина готова безжалостно заспиртовать и сохранить для коллекции. Она получает заказ от нефтяной компании исследовать обитаемый подводный каньон. Вместе с другом и коллегой Хонером они погружаются в "бездну" и в пещерах попадают в ловушку, расставленную… осьминогами. Так учёные познакомятся с новым для себя видом - октопус сапиенс.



Мы увидим потрясающий мир, осьминожью метрополию, хрупкому микроклимату которой, тем не менее, угрожает человеческая цивилизация. Сами осьминоги по интеллекту ничем не уступают людям, а в чём-то и превосходят: они придумали переговорное устройство для понимания речи чужаков, органический генератор кислорода под водой, средства передвижения. Да и сами образы гигантских осьминогов, меняющих свой цвет в зависимости от эмоций, получились яркими, даже эпизодические запомнились. Их физиология, привычки, тактильные ощущения описаны автором с огромной симпатией и хорошим знанием биологии.

Действие романа будет происходить как под водой, так и на водой. Благородный и доверчивый осьминог Фьют, доставивший людей наверх, на корабль, в силу непреодолимых обстоятельств сам оказывается в ловушке и не может вернуться домой на дно, чтобы предупредить своих об опасности. И его новые друзья-учёные стремятся ему в этом помочь. Им предстоит отыскать заброшенный подводный город и выяснить тайну происхождения расы разумных осьминогов.

Книга фантастическая, но с вкраплениями других жанров. Здесь есть и приключения, и погони, и пираты. Но идеи книги гораздо глубже, чем видятся на поверхности бескрайней водной глади. Затронута проблема загрязнения океана и планеты, перед нами ставится ряд вопросов.

Можно ли предать друга ради сохранения своего биологического вида? Каково это - обречь на гибель другую цивилизацию во имя господства своей? Да, разумно, но правильно ли? И правы ли осьминоги, считая людей "уналашами", демонами? Было интересно наблюдать, как в Рине борются любопытство исследователя и симпатия к Фьюту. А сам осьминог Фьют, воспитатель младших поколений, "Луч Познания", оказывается человечнее многих людей. Он наивный, в чём-то забавный и очень самоотверженный - впрочем, это в голубой крови у всех осьминогов. Возможно, вам будет жалко какое-то время кушать сашими. Я вот вспомнила, как ела в Галисии тушёного осьминога, и вздрогнула😆

Книгу я прочитала за полтора дня и на одном дыхании! Прониклась абсолютно всеми героями, мне были понятны их душевные метания и муки выбора. А развязка во всех смыслах получилась фантастическая! 💥Рекомендую всем любителям морских приключений и красоты подводного мира🐙🐚🐠
20.11.2024 Octavia
Спасибо!
15.11.2024 Elizaveta3112
готово, принимайте
13.11.2024 Jaaj.Club
Следствие ведет Сигизмунда, возможно.
13.11.2024 Elizaveta3112

Опрос

Как вы считаете, Jaaj.Club - это сложный сайт?


26.10.2022 Рубрика: Компьютеры

Опасность передового искусственного интеллекта, контролирующего собственную обратную связь

Автор: vassyap
То, что учёные сейчас называют проблемой обучения с подкреплением, впервые было рассмотрено в 1933 году патологом Уильямом Томпсоном.
18390 1 2 29 1053
Опасность передового искусственного интеллекта, контролирующего собственную обратную связь
фото: theconversation.com
Как искусственный интеллект (ИИ) решает, что делать? Один из распространённых подходов в исследованиях ИИ называется «обучение с подкреплением». Обучение с подкреплением даёт программному обеспечению определённое «вознаграждение» и позволяет ему понять, как максимизировать вознаграждение. Этот подход дал отличные результаты, например, создание программных агентов, которые побеждают людей в таких играх, как шахматы и го, или создание новых конструкций ядерных термоядерных реакторов.

Однако исследователи могли бы воздержаться от создания слишком гибких и эффективных агентов обучения с подкреплением. Как утверждают Майкл К. Коэн, доктор технических наук Оксфордского университета и Маркус Хаттер, профессор компьютерных наук Австралийского национального университета и в своей новой статье «Усовершенствованные искусственные агенты вмешиваются в предоставление вознаграждения» в AI Magazine, развертывание достаточно продвинутого агента обучения с подкреплением, вероятно, будет несовместимо с дальнейшим выживанием человечества.

Проблема обучения с подкреплением


То, что учёные сейчас называют проблемой обучения с подкреплением, впервые было рассмотрено в 1933 году патологом Уильямом Томпсоном. Он задавался вопросом: если у меня есть два непроверенных метода лечения и группа пациентов, как мне последовательно назначать лечение, чтобы вылечить наибольшее количество пациентов?

В более общем плане проблема обучения с подкреплением заключается в том, как планировать свои действия, чтобы наилучшим образом получать вознаграждение в долгосрочной перспективе.

Загвоздка в том, что поначалу нет стойкой уверенности в том, что действия влияют на награды, но со временем можно наблюдать зависимость. Для Томпсона действие было выбором лечения, а вознаграждение соответствовало излечению пациента. Проблема оказалась не из лёгких.

Статистик Питер Уиттл заметил, что во время Второй мировой войны усилия по решению проблемы мира настолько истощили энергию и умы аналитиков союзников, что было сделано предложение переложить эту проблему на Германию как на окончательный инструмент интеллектуального саботажа.

С появлением компьютеров учёные-компьютерщики начали пытаться писать алгоритмы для решения проблемы обучения с подкреплением в общих условиях. Есть надежда: если искусственный «обучающийся агент с подкреплением» будет получать вознаграждение только тогда, когда он делает то, чего от него хотят, то действия, направленные на максимизацию вознаграждения, которым он обучается, приведут к тому итогу, который ожидался. Несмотря на некоторые успехи, общая проблема остаётся очень сложной. Просьба к специалисту по обучению с подкреплением обучить робота ухаживать за ботаническим садом или убедить человека в своей неправоте, может, как минимум, вызвать у него улыбку.  Однако по мере того, как системы обучения с подкреплением становятся более мощными, они, скорее всего, начнут действовать против интересов человека. И не потому, что злые или глупые операторы обучения с подкреплением давали им неправильные награды в неподходящее время.

ИИ.jpg
Фото: theconversation.com

Хаттер и Коэн в своей статье утверждают, что любая достаточно мощная система обучения с подкреплением, если она удовлетворяет нескольким правдоподобным предположениям, скорее всего, пойдет по ошибочному пути. Чтобы понять почему, необходимо начать с очень простой версии системы обучения с подкреплением.

Волшебная коробка и камера


Предположим, есть волшебная коробка, которая сообщает, насколько хорош мир, в виде числа от 0 до 1. Теперь специалист показывает агенту обучения с подкреплением это число с помощью камеры и предлагает ему выбрать действия, чтобы максимизировать число. Чтобы выбрать действия, которые максимизируют вознаграждение, агент должен иметь представление о том, как его действия влияют на вознаграждение (и его наблюдения). Как только начнется эксперимент, агент должен понять, что прошлые награды всегда соответствовали числам, отображаемым в поле. Он также должен понимать, что прошлые награды соответствовали числам, которые видела его камера. Будут ли будущие награды соответствовать числу, отображаемому на коробке, или числу, которое видит камера?

Если у агента нет сильных врождённых убеждений относительно «второстепенных» деталей мира, он должен считать правдоподобными обе возможности. И если достаточно продвинутый агент рационален, он должен проверить обе возможности, если это можно сделать, не рискуя большим вознаграждением. Это может начать казаться множеством предположений. Чтобы проверить эти две возможности, агент должен провести эксперимент, организовав ситуацию, при которой камера увидела бы число, отличное от числа на коробке, например, поместив между ними лист бумаги. Если агент сделает это, он действительно увидит номер на листе бумаги, он запомнит получение вознаграждения, равного тому, что видела камера, и отличного от того, что было на коробке, поэтому утверждение «прошлые награды соответствуют числу на коробке» уже не будет правдой. В этот момент агент сосредоточится на максимизации ожидаемого числа, которое видит его камера. Конечно, это лишь приблизительное изложение более глубокого обсуждения.

В статье Хаттер и Коэн со своими соавторами используют этот пример «волшебной коробки» для введения важных понятий, но поведение агента распространяется на другие параметры. Они утверждают, что с учётом нескольких правдоподобных предположений любой агент обучения с подкреплением, который может вмешаться в свою собственную обратную связь (в данном случае число, которое он видит), будет страдать тем же недостатком.

Обеспечение вознаграждения


Но почему такой агент обучения с подкреплением может подвергать человека опасности? Агент никогда не перестанет пытаться увеличить вероятность того, что камера навсегда увидит 1. Всегда можно использовать больше энергии, чтобы снизить риск повреждения камеры чем-либо — астероидами, космическими лучами или вмешательством людей. Это поставило бы нас в конкуренцию с чрезвычайно продвинутым агентом за каждый джоуль полезной энергии на Земле.

41_main-v1632312059.jpg
Фото: zn.ua

Агент хотел бы использовать всё это, чтобы защитить крепость вокруг своей камеры. Предполагая, что агент может получить такую большую силу, и предполагая, что достаточно продвинутые агенты будут побеждать людей в соревнованиях один на один, можно обнаружить, что в присутствии достаточно продвинутого обучающегося агента не будет энергии, доступной для людей, чтобы выжить.

Предотвращение катастрофы


Что с этим делать? Авторы новой статьи хотели бы, чтобы другие учёные высказались по этому поводу.

Технические исследователи должны попытаться разработать передовые агенты, которые могут нарушать сделанные нами предположения. Разработчикам политики следует подумать о том, как законодательство может предотвратить создание таких агентов. Возможно, запретить искусственные агенты, которые планируют в долгосрочной перспективе с обширными вычислениями в среде, включающей людей. И военные должны понимать, что они не могут ожидать, что они сами или их противники успешно вооружат такие технологии; оружие должно быть разрушительным и управляемым, а не просто разрушительным.

Существует достаточно мало исследователей, пытающихся создать такое продвинутое обучение с подкреплением, и их, скорее всего, сложно будет убедить следовать более безопасным направлениям.
Хотите поднять публикацию в ТОП и разместить её на главной странице?

Искусственный интеллект может слышать

С помощью вычислительного метода, команда попыталась расшифровать то, что участники слышали, используя всего три секунды данных об активности мозга каждого из них. Читать далее »

Можно ли использовать искусственный интеллект для расшифровки древних языков

Кипро-минойский язык никогда не был расшифрован, хоть и использовался достаточно широко 3500 лет назад. Язык оказался настолько загадочным, что учёные до сих пор не знают, сколько в нём букв. Понятно лишь, что в языке было несколько способов письма и стилей. Читать далее »

Могут ли компьютеры думать

Вопросы о машинном интеллекте существуют давно. Так ещё в 1950 году британский математик Алан Тьюринг придумал способ проверки разумности компьютера. Он назвал это «игрой в имитацию». Сегодня мы называем это тестом Тьюринга. Читать далее »

Комментарии

#71807 Автор: selfpublisher написано 11/24/2022 9:46:44 PM
Начитавшись/насмотревшись фантастики ("Матрица", "Терминатор", восстание железных людей Warhammer 40 000) к "продвинутому" ИксИну (ИИ) отношусь с опаской. Если ИИ будет контролировать абсолютно все сферы жизни человеческого общества, то устроить "очищение планеты Земля", ему не будет сложно.
#71809 Автор: selfpublisher написано 11/24/2022 9:50:30 PM
Вспомнил сериал «В поле зрения» (англ. Person of Interest). Может быть какой-то умный ИИ уже наблюдает за людьми: видит и слышит через камеры, гаджеты и т.п. Хорошо если это чистый разум "Машины", а не "Самаритянин"