Interpult Studio. Создание и построение seo ссылок

Исследователи говорят, что сверхинтеллектуальный ИИ не будет в руках человека

Исследователи говорят, что сверхинтеллектуальный ИИ не будет в руках человека

IIПотенциальная опасность для человечества, вот почему это за гранью человеческого понимания

К сожалению, исследователи считают, что регулировать сверхинтеллектуальный ИИ может быть сложно. Объяснение простое: если II могут понимать информацию лучше, чем люди, наша вычислительная мощность будет ограничена. Возможно, мы никогда не сможем управлять сверхинтеллектуальный ИИ если мы не в состоянии понять его интеллект.

Но ведь весь ИИ создан для того, чтобы быть удобным для человека? Да конечно. Но, по мнению авторов недавнего исследования, если мы не полностью понимаем сценарии, которые II может генерировать, мы не можем спроектировать сочувствие к людям в искусственном интеллекте. Авторы новой статьи утверждают, что мы не можем устанавливать такие правила, как «не навреди людям», пока не узнаем, в каких ситуациях II скорее всего столкнется. Мы не можем вводить ограничения, когда компьютерная система работает на уровне, превышающем возможности наших программистов. Исследователи разрушают любую надежду остановить ИИ.

Это связано с многогранной природой сверхразума, которая делает его потенциально способным мобилизовать различные ресурсы для достижения целей, которые могут быть за пределами человеческого понимания, не говоря уже о том, чтобы находиться под человеческим контролем.

«Проблема остановки», впервые представленная Аланом Тьюрингом в 1936 году, служит основой для обоснования команды. Он делает попытку понять, если компьютерная программа придет к выводу (и остановится) или продолжит беспрерывно искать решение в цикле. Тьюринг продемонстрировал, что, хотя возможно знать решение для определенных программ, невозможно знать решение для каждой программы, которую можно построить.

Хотя мы можем знать, что для некоторых конкретных программ математически невозможно разработать механизм, который позволит нам узнать это для каждой гипотетической программы, которая когда-либо может быть написана, как продемонстрировал Тьюринг с помощью некоторых умных математических расчетов. Это возвращает нас к ИИ, сверхинтеллектуальному состоянию, которое может одновременно хранить в своей памяти все существующие программы.

READ  Илон Маск объявляет, что Starlink обеспечит покрытие мертвой зоны для T-Mobile

Подобно этому, ИИ, который был разработан, чтобы никогда не причинять людям вреда, может сделать вывод (и остановиться) или нет. В любом случае, люди не способны вычислять и содержать. Исследователи предполагают, что для сдерживания ИИ его можно отключить от определенных сетей или частей Интернета, чтобы ограничить его возможности, особенно если он чрезвычайно интеллектуален.

График чуть менее мрачный. Вероятно, пройдет несколько лет, прежде чем человечество столкнется с такой экзистенциальной вычислительной расплатой, согласно по крайней мере одной оценке.

Наряду с новостями о II побеждая людей в этих играх. Мануэль Альфонсека, ученый-компьютерщик из Автономного университета Мадрида и главный автор исследования, отмечает, что вопрос о том, можно ли управлять искусственным сверхразумом, является старым. Он восходит как минимум к 1940-м годам и первому закону робототехники Азимова.

Ниже приведены три «Закона робототехники» Айзека Азимова в рассказе 1942 года «Обход»:

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

2. Робот должен подчиняться приказам, отдаваемым ему людьми, за исключением случаев, когда такие приказы противоречат Первому закону.

3. Робот должен защищать свое существование до тех пор, пока такая защита не противоречит Первому или Второму законам.

Теперь Альфонсека и его коллеги утверждают, что из-за фундаментальных ограничений, связанных с вычислениями, может оказаться невозможным управлять сверхинтеллектуальным ИИ.

Исследователи предположили, что любая программа, направленная на то, чтобы сверхинтеллектуальный ИИ не мог причинить вред людям, должна сначала смоделировать поведение компьютера, чтобы предвидеть возможные результаты. Таким образом, сверхумный компьютер должен быть остановлен этим механизмом сдерживания, если он действительно может причинить вред.

Однако ученые утверждали, что ни одна программа сдерживания не может воспроизвести поведение ИИ и предсказать со 100-процентной точностью, могут ли его действия причинить вред. Программа может не обнаруживать ошибки, пытаясь точно воспроизвести поведение ИИ или предвидеть результаты решений ИИ.

READ  Ступень китайской ракеты не нанесла ущерба, сгорев при входе в атмосферу над Индийским океаном

Хотя может быть невозможно управлять сверхразумным искусственным интеллектом общего назначения, должна быть возможность управлять сверхинтеллектуальным узким ИИ — специализированным для определенных функций, а не способным выполнять широкий круг задач, как люди. С другой стороны, пока нет необходимости украшать гостевую комнату для наших будущих роботов.

Сообщение «Суперинтеллектуальный ИИ выйдет из-под контроля человека, говорят исследователи» впервые появилось на Analytics Insight.

Исходная ссылка

Исследователи говорят, что сверхинтеллектуальный ИИ не будет в руках человека