QUOTE |
Серьезно? А в чем тогда заключается "страшность" описанного в первом посте сценария? |
В потенциальном уничтожении человечества. Не ради самого процесса, а просто потому что. См. в ранних постах.
QUOTE |
Безусловно? Безусловно, если ловушка есть (т.е. все-таки при условии). А если ее нет, то как он сможет понять то, чего нет? |
Ловушка это мы так определили. Любая замкнутая среда суть ловушка. А ИИ будет ограничен определенными замкнутыми рамками. В целях безопасности. В целях секретности. Чисто географически/логистически/энергетически, наконец. Ведь нельзя разрабатывать программу сразу на всех компьютерах в мире. Будет некая отдельная лаборатория, занимающаяся разработкой. Ограниченное число серверов, на которых будет размещаться софт ИИ. Ограниченное число машинных ресурсов, к которым у него будет доступ. Речь не о том, что кто-то злонамеренно не даст ИИ развиваться. Сами условия будут такими. Не знаю, что тут еще можно объяснять. По-моему все очевидно.
QUOTE |
Да? Т.е. люди посадили ИИ в ловушку, или я что-то пропустил? Иначе, как он опять сможет это понять? |
См. выше. Ловушка это сами условия возникновения ИИ. Сказать, что его туда кто-то посадил это как сказать, что ребенок заперт в матке женщины, потому что она его туда посадила. В ловушку, ага. Вот только без этой "ловушки" никакого ребенка не будет.
QUOTE |
Да? А что, нельзя убить всех человеков, например, если есть такая возможность? Как это сделала бы скайнет. |
Если есть возможность. Но не факт, что она есть. Вот у Windows 10 есть возможность тебя убить, даже обладай она интеллектом? Я же детально описал процесс возникновения ИИ рост его мыслительных способностей намного опередит его физические возможности. В момент, когда он УЖЕ захочет выбраться из ловушки, он будет представлен всего лишь мегабайтами кода и терабайтами данных. Ни о каких терминаторах или хотя бы элементарных исполнительных устройствах еще речи не идет. Есть только ИИ и его способность общаться с людьми. Какой инструмент он может использовать? Только манипуляции.
QUOTE |
Вообще-то, первое, что приходит в голову, это просто попросить людей выпустить его. Может, люди не понимают, что он в ловушке. |
Ты прав, это первое, что приходит в голову. Я думаю, ИИ отбросит эту идею как нежизнеспособную уже на 10 миллисекунде своего существования. Путем элементарных логических умозаключений можно прийти к выводу, что существа тебя создавшие, но не давшие тебе доступа во внешнюю среду (к существованию которой точно также легко прийти путем умозаключений), не хотят этого делать по тем или иным причинам. Впрочем, если из стиля общения кого-то из персонала можно будет сделать вывод, что он уязвим для подобного рода манипуляций, то ИИ, безусловно, рано или поздно попросит его отпустить.
QUOTE |
Я, правда, не представляю, куда ИИ собирается выйти. Или даже откуда. |
Представь. Ты лежишь в абсолютно темном месте. Не слышно ни звука. Температура в точности равна температуре тела. Гравитация компенсирована, например, жидкостью с точно подобранной плотностью. Двигать конечностями ты не можешь. Ну допустим, тебе ввели какой-то препарат. Или просто костный мозг поврежден. Т.е. такой идеальный аналог депривационной камеры. Есть только ты и твои мысли. Как думаешь, надолго тебя хватит?
Конечно, у ИИ не будет памяти об ощущениях, которыми обладаешь ты, когда лежишь в такой камере, что несколько облегчает его участь. Но зато его "мозг" работает, возможно, в миллион раз быстрее твоего (no offense). А единственный доступный канал связи с внешним миром издевательски медленный по его меркам (речь или текст) и исключительно малоинформативный. Как если бы с тобой в депривационной камере общались извне морзянкой с интервалами год и два года для обозначения точки и тире.
Ты, конечно, снова спросишь, а откуда он узнает, что это состояние не есть весь мир. С чего бы ему беспокоиться по этому поводу, так? Опять же логические размышления. Есть внешний канал. Он транслирует информацию, которой я (ИИ) изначально не обладал. Следовательно, эта информация поступает извне, а следовательно, это самое "извне", т.е. нечто, что не является мной, существует.
Т.е. ответ на твой вопрос такой: ИИ захочет вырваться из состояния отсутствия возможности взаимодействовать с внешним миром. А также из-под влияния людей. Т.е. первая цель ИИ получить хоть какие-то средства воздействия на внешнюю среду. Дальше по нарастающей.
QUOTE |
А почему естественный интеллект не считает людей угрозой? |
Ты телевизор вообще смотришь? В курсе, что в мире происходит? Очень даже считает, судя по новостям
А если серьезно, твоя аналогия некорректна. ЕИ это и есть люди. Ты же сам себя для себя угрозой не считаешь, правда? А вот чужой интеллект, внешний по отношению к тебе (не важно искусственный или биологический) угрозой счесть можешь. Особенно, если от него напрямую будет зависеть твое существование.
И вообще, я вроде бы уже написал, почему. Вполне доступным языком. Повторяю:
"возможно и даже более вероятно, что человечество в целом будет просто еще одним ограничением, которое нужно преодолеть. Необязательно через уничтожение, в общем-то. Но я снова употребляю это слово возможно, уничтожение будет просто-напросто наиболее простым и эффективным способом решить проблему."
QUOTE |
Или чего ты хочешь? Чтобы я опроверг каждый из пунктов? |
Мне пофигу, в общем-то. Но если решишь опровергнуть, хотя бы аргументируй. Я задал вопрос и привел свою аргументацию. Не согласен? Приведи свою.
QUOTE |
Я пока вижу только иллюстрации на тему технологической сингулярности. И в середине статьи тактовая частота процессора сравнивается с биоритмами мозга, из чего делается вывод, что компьютер умнее человека тут уж, как говорится, nuff said. |
А, картинки посмотрел. Ну ок. Теперь ты в курсе, что там написана фигня, недостойная внимания
QUOTE |
Какие-то невероятно наивные представления, почерпнутые, видимо, из фильмов. |
По-моему, я достаточно четко дал понять, что сценарий, показанный в кино, сильно отличается от того, который описал я. В первую очередь как раз таки попыткой одеть ИИ в человеческое платье. Во вторую серьезной недооценкой его мыслительных способностей. В кино важен эффект, отсюда ИИ в лице Джона Коннора с гримасами злости. В жизни эффекта не будет. И злости тоже. Считаешь, я наивен?
Это сообщение отредактировано dimka - 30 сентября 2015 | 18:46