Loading AI tools
возможное последствие создания и развития человеком сильного искусственного интеллекта, описанное Ирвингом Гудом Из Википедии, свободной энциклопедии
Интеллектуальный взрыв — возможное последствие создания и развития человеком сильного искусственного интеллекта, описанное Ирвингом Гудом в 1965 году[1].
Согласно этой концепции, в определённый момент человечество создаст искусственный интеллект, который будет способен к улучшению самого себя, притом без участия человека. Так, в процессе самосовершенствования такой искусственный интеллект может трансформироваться в искусственный суперинтеллект, который превзойдёт способности людей. Это и будет моментом «интеллектуального взрыва». Понятие интеллектуального взрыва тесно связано с понятием технологической сингулярности.
Основное отличие сильного искусственного интеллекта и искусственного суперинтеллекта от обычного искусственного интеллекта в том, что способности первых во многом превзойдут интеллектуальные способности самых выдающихся представителей человечества. Таким образом человечество будет не в состоянии в полной мере понимать и контролировать их развитие.
Несмотря на то, что учёными, занимающимися проблемами развития искусственного интеллекта, на данный момент не выработано единого общепринятого определения сильного искусственного интеллекта, есть договорённость о свойствах, которыми должен обладать сильный искусственный интеллект (СИИ). Таким образом, СИИ способен:
Среди других характеристик сильного искусственного интеллекта также выделяются его потенциальные способности к сознанию, самосознанию и мудрости.
Стоит упомянуть, что ни одно из указанных выше свойств нельзя назвать обязательным для создания сильно искусственного интеллекта. К тому же, среди учёных нет единого мнения о том, является ли список этих характеристик достаточным для создания и функционирования сильного искусственного интеллекта.
В своей работе «Размышления о первой ультраразумной машине» 1965 года Ирвинг Гуд пишет:
«Определим ультраразумную машину как машину, способную намного превзойти любую интеллектуальную деятельность человека, каким бы умным он ни был. Поскольку конструирование машин — одно из интеллектуальных действий, ультраразумная машина способна конструировать все более совершенные машины; затем, бесспорно, произойдёт „интеллектуальный взрыв“, и человеческий разум останется далеко позади. Таким образом, первая ультраразумная машина — это последнее изобретение, которое потребуется от человека…»[3]
Таким образом он представляет доказательство возможности создания искусственным интеллектом своего более совершенного варианта. Идея Ирвинга Гуда о том, что в определённый момент человеком будет изобретена машина, интеллектуальные способности которой превзойдут способности человека, стала основой дискуссий о технологической сингулярности. Причём Гуд считал этот момент в человеческой истории неизбежным и позитивным, так как после интеллектуального взрыва машины будут решать все существующие проблемы человечества, так как они будут способны делать этой с гораздо большей эффективностью, чем человек. В работе «Размышления о первой ультраразумной машине» он говорил, что создание искусственного интеллекта, способного на самосовершенствование и самовоспроизведение, будет «последним изобретением человека», так как машины смогут разрешить даже проблемы, представляющие опасность для человеческой цивилизации. Однако далее в своей работе Гуд высказывает вполне справедливые опасения насчёт того, сможет ли человек сохранить какой бы то ни было контроль над изобретённым им суперинтеллектом и понимание его действий. Ведь если «умная машина» не сообщит человеку, «как её можно контролировать», у человечества не будет возможности влиять на своё изобретение. Последствия этого могут быть самыми разнообразными[4].
В книге «Наша математическая вселенная. В поисках фундаментальной природы реальности»[5] Макс Тегмарк пишет о возможных последствиях интеллектуального взрыва. Он размышляет над возможными отношениями между человеком и искусственным интеллектом и анализирует устойчивость системы взаимоотношений искусственного интеллекта, чьи возможности превзойдут человеческие, и непосредственно человечества. Так, даже устоявшиеся дружелюбные взаимоотношения могут быть крайне неустойчивыми, а их развитие непредсказуемым. Таким образом, частичный пессимизм Гуда по этому вопросу Тегмарк находит весьма оправданным, учитывая сложность устройства работы ИИ после интеллектуального взрыва и недоступность полного понимания его деятельностями для человека.
В 1950 году Алан Тьюринг — коллега и приятель Ирвинга Гуда, с которым они вместе работали в Блетчли-Парке во время Второй мировой войны с командой шифровальщиков, — пишет статью «Вычислительные машины и разум» (COMPUTING MACHINERY AND INTELLIGENCE). В ней он излагает наиболее распространённые возражения противников идеи о возможности создания «мыслящих машин». Несмотря на то, что работа была написана и опубликована больше полувека назад, возражения, упомянутые Тьюрингом, остаются актуальными, так как отражают в том числе вневременные религиозные воззрения, математические положения и особенности человеческой психики.
Итак, в статье приводятся следующие причины невозможности создания «думающих машин». Во-первых, умение мыслить с теологической точки зрения приписывается душе человека. Следовательно, все, что не имеет души, — не может быть способно мыслить. Во-вторых, теорема Г. Гёделя может рассматриваться в этом контексте как доказательство невозможности создания сильного искусственного интеллекта, так как если логическая система достаточно мощна, то в её рамках можно сформулировать утверждения таким образом, что их невозможно будет ни доказать, ни опровергнуть внутри такой системы (конечно, если сама система при этом не является противоречивой). В-третьих, даже если машина будет реагировать на внешние раздражители так, как реагировал бы человек, например, отвечать на вопросы интервьюера о «своей внешности», показывать реакцию удовольствия от похвалы, писать сонеты и т. д., невозможно узнать, действительно ли она испытывает чувства, превращая их в стихи, знает, что она выглядит так или иначе и получает удовольствие, если её хвалят. Вероятно, это всего лишь запрограммированная в неё реакция, не сознаваемая ею. Ада Лавлейс, знаменитый английский математик, в своих мемуарах писала, что «аналитическая машина не претендует на создание чего-либо», и что она способна лишь воспроизводить то, что было приказано ей человеком. Также, с биологической точки зрения, очевидно, что для машины невозможно имитировать поведение человеческой нервной системы. Также упоминается, что для машины невозможно запрограммировать все возможные варианты поведения для всех возможных вариантов событий, таким образом, реакция человека в таком случае будет отличаться от реакции машины[6].
Феномен интеллектуального взрыва, так же, как и родственный ему феномен технологической сингулярности, широко представлен в массовой культуре уже на протяжении десятилетий. В произведениях культуры обыгрываются различные последствия и варианты развития взаимоотношений между человеком и искусственным интеллектом, где события развиваются как в положительном русле, так и наоборот.
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.