Мне кажется, под "Искусственным Интеллектом" многие участники дискуссии подразумевают "Искусственного Человека" или "Искусственный Разум", а это не совсем верно, поэтому необходимо разделить эти понятия.
"Искусственный Интеллект" - это алгоритмы и программы, моделирующие некоторые, достаточно простые и хорошо изученные, аспекты интеллектуальной деятельности человека. Создаются они для решения простых и рутинных, но многочисленных интеллектуальных задач, чтобы освободить уникальный человеческий интеллект для решения неформализуемых творческих задач.
Такой "Искусственный Интеллект" существует в настоящее время и будет продолжать развиваться в будущем. К системам "Искусственного Интеллекта" можно отнести экспертные системы , системы нечеткой логики и нейронные сети.
Задачи, решаемые в настоящее время такими системами - это задачи управления и принятия решений, распознавание образов, автоматическое создание программ по образцам и т.п. Обучение таких систем сводится к формализации знаний, имеющихся у человека-эксперта. Решать творческие задачи и создавать новое знание такие системы не способны. Ни сейчас, ни в ближайшем будущем.
По моему глубокому убеждению, "Искусственного Человека" или "Искусственный Разум" создать во-первых, невозможно, а во-вторых никому не нужно. Для создания искусственного разума нужно знать, как работает естественный разум. Полностью познать себя человек не может по определению. Следовательно, создаваемый "Искусственный Разум" будет заведомо уступать естественному. Не стоит думать, что Человек несовершенен. Бог, Природа или Эволюция (кому как угодно) использовали при создании Человека настолько высокие, а главное, эффективные технологии, что создать нечто подобное человек не сможет никогда. И даже если когда-нибудь, в далеком будущем, появится возможность создать нечто, хотя бы приближающееся к Человеку, стоимость его создания будет настолько велика, что никто за это просто не возмется. Использовать обычного Человека будет заведомо и намного дешевле.
Но даже существующий "Искусственный Интеллект" может представлять угрозу Человечеству, особенно если приобретет возможность генерировать собственные цели. Например, самообучающийся, способный эволюционировать и преследующий собственные цели компьютерный вирус может быть весьма опасен. Уничтожить Человечество он, конечно, не сможет, а вот уничтожить Интернет - вполне в состоянии. Как отреагирует на это мировая экономика, я думаю, объяснять не нужно. Могут быть и другие опасности. Например, интеллектуальная, обучающаяся детская игрушка, вроде собачки или Покемона, Человеку, конечно уступает, но может заменить ребенку друзей и Родителей. Чему научится ребенок от этой, не обладающей этикой, бездушной машины. Может, он станет генералом, свихнется и запустит ядерные ракеты? Может быть, в Интернете спонтанно возникнет некоторая форма сознания и, как знать, какие цели она будет преследовать?
Так что, реальных опрасностей, по-моему достаточно, и не стоит обсуждать еще и выдуманные опасности - "Что будет, если ученые придумают Терминатора?" Многие фантастические произведения создаются только для того, чтобы "пощекотать нервы обывателю" и серьезно обсуждать выдвинутые в них предположения не имеет смысла. Например, Стивен Кинг придумал автомобиль, обладающий разумам и злобной волей - "Кристину", но никто из-за этого не отказывается от личного автомобиля и не считает автомобиль угрозой Человечеству.
По моему мнению, любое техническое усовершенствование может представлять собой угрозу и привести к человеческим жертвам. Например, в автокатастрофах ежегодно погибает гораздо больше людей, чем в войнах за тот же период. Но эти жертвы являются платой за прогресс и те преимущества, которые он дает Человечеству. Также и с "Искусственным Интеллектом" - возможно, кто-то свихнется, кто-то погибнет, но остальные с удовольствием будут им пользоваться. И существованию Человечества, мне кажется, он не грозит.
Вообще, создается впечатление, что Человечество в целом, как элемент Мироздания обладает некими механизмами саморегуляции, нейтрализующими потенциально опасные для него воздействия. Думаю, даже если кто-нибудь случайно запустит ядерную ракету, к цепной реакции это не приведет и всеобщей ядерной войны не будет. Хотя, возможно, насчет ракет я и ошибаюсь, но буду рад, если история никогда не проверит мое предположение на практике.