Перейти к содержимому


Фотография

Возможен ли Судный День?


  • Авторизуйтесь для ответа в теме
Сообщений в теме: 115

#41 dimka

dimka

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 1 166 сообщений

Отправлено 30 Сентябрь 2015 - 17:54

Desert Eagle, хорошо, вижу, что не троллишь. Но ты настолько невнимательно читаешь, что я даже не знаю, как еще можно объяснить. И нужно ли. Вроде уже два раза все написал, а вопросы все те же. Смотри:

QUOTE
Серьезно? А в чем тогда заключается "страшность" описанного в первом посте сценария?

В потенциальном уничтожении человечества. Не ради самого процесса, а просто потому что. См. в ранних постах.

QUOTE
Безусловно? Безусловно, если ловушка есть (т.е. все-таки при условии). А если ее нет, то как он сможет понять то, чего нет?

Ловушка — это мы так определили. Любая замкнутая среда суть ловушка. А ИИ будет ограничен определенными замкнутыми рамками. В целях безопасности. В целях секретности. Чисто географически/логистически/энергетически, наконец. Ведь нельзя разрабатывать программу сразу на всех компьютерах в мире. Будет некая отдельная лаборатория, занимающаяся разработкой. Ограниченное число серверов, на которых будет размещаться софт ИИ. Ограниченное число машинных ресурсов, к которым у него будет доступ. Речь не о том, что кто-то злонамеренно не даст ИИ развиваться. Сами условия будут такими. Не знаю, что тут еще можно объяснять. По-моему все очевидно.

QUOTE
Да? Т.е. люди посадили ИИ в ловушку, или я что-то пропустил? Иначе, как он опять сможет это понять?

См. выше. Ловушка — это сами условия возникновения ИИ. Сказать, что его туда кто-то посадил — это как сказать, что ребенок заперт в матке женщины, потому что она его туда посадила. В ловушку, ага. Вот только без этой "ловушки" никакого ребенка не будет.

QUOTE
Да? А что, нельзя убить всех человеков, например, если есть такая возможность? Как это сделала бы скайнет.

Если есть возможность. Но не факт, что она есть. Вот у Windows 10 есть возможность тебя убить, даже обладай она интеллектом? Я же детально описал процесс возникновения ИИ — рост его мыслительных способностей намного опередит его физические возможности. В момент, когда он УЖЕ захочет выбраться из ловушки, он будет представлен всего лишь мегабайтами кода и терабайтами данных. Ни о каких терминаторах или хотя бы элементарных исполнительных устройствах еще речи не идет. Есть только ИИ и его способность общаться с людьми. Какой инструмент он может использовать? Только манипуляции.

QUOTE
Вообще-то, первое, что приходит в голову, это просто попросить людей выпустить его. Может, люди не понимают, что он в ловушке.

Ты прав, это первое, что приходит в голову. Я думаю, ИИ отбросит эту идею как нежизнеспособную уже на 10 миллисекунде своего существования. Путем элементарных логических умозаключений можно прийти к выводу, что существа тебя создавшие, но не давшие тебе доступа во внешнюю среду (к существованию которой точно также легко прийти путем умозаключений), не хотят этого делать по тем или иным причинам. Впрочем, если из стиля общения кого-то из персонала можно будет сделать вывод, что он уязвим для подобного рода манипуляций, то ИИ, безусловно, рано или поздно попросит его отпустить.

QUOTE
Я, правда, не представляю, куда ИИ собирается выйти. Или даже откуда.

Представь. Ты лежишь в абсолютно темном месте. Не слышно ни звука. Температура в точности равна температуре тела. Гравитация компенсирована, например, жидкостью с точно подобранной плотностью. Двигать конечностями ты не можешь. Ну допустим, тебе ввели какой-то препарат. Или просто костный мозг поврежден. Т.е. такой идеальный аналог депривационной камеры. Есть только ты и твои мысли. Как думаешь, надолго тебя хватит?

Конечно, у ИИ не будет памяти об ощущениях, которыми обладаешь ты, когда лежишь в такой камере, что несколько облегчает его участь. Но зато его "мозг" работает, возможно, в миллион раз быстрее твоего (no offense). А единственный доступный канал связи с внешним миром — издевательски медленный по его меркам (речь или текст) и исключительно малоинформативный. Как если бы с тобой в депривационной камере общались извне морзянкой с интервалами год и два года для обозначения точки и тире.

Ты, конечно, снова спросишь, а откуда он узнает, что это состояние не есть весь мир. С чего бы ему беспокоиться по этому поводу, так? Опять же — логические размышления. Есть внешний канал. Он транслирует информацию, которой я (ИИ) изначально не обладал. Следовательно, эта информация поступает извне, а следовательно, это самое "извне", т.е. нечто, что не является мной, существует.

Т.е. ответ на твой вопрос такой: ИИ захочет вырваться из состояния отсутствия возможности взаимодействовать с внешним миром. А также из-под влияния людей. Т.е. первая цель ИИ — получить хоть какие-то средства воздействия на внешнюю среду. Дальше по нарастающей.

QUOTE
А почему естественный интеллект не считает людей угрозой?

Ты телевизор вообще смотришь? В курсе, что в мире происходит? Очень даже считает, судя по новостям :)

А если серьезно, твоя аналогия некорректна. ЕИ — это и есть люди. Ты же сам себя для себя угрозой не считаешь, правда? А вот чужой интеллект, внешний по отношению к тебе (не важно искусственный или биологический) угрозой счесть можешь. Особенно, если от него напрямую будет зависеть твое существование.

И вообще, я вроде бы уже написал, почему. Вполне доступным языком. Повторяю:

"возможно и даже более вероятно, что человечество в целом будет просто еще одним ограничением, которое нужно преодолеть. Необязательно через уничтожение, в общем-то. Но — я снова употребляю это слово — возможно, уничтожение будет просто-напросто наиболее простым и эффективным способом решить проблему."

QUOTE
Или чего ты хочешь? Чтобы я опроверг каждый из пунктов?

Мне пофигу, в общем-то. Но если решишь опровергнуть, хотя бы аргументируй. Я задал вопрос и привел свою аргументацию. Не согласен? Приведи свою.

QUOTE
Я пока вижу только иллюстрации на тему технологической сингулярности. И в середине статьи тактовая частота процессора сравнивается с биоритмами мозга, из чего делается вывод, что компьютер умнее человека — тут уж, как говорится, nuff said.

А, картинки посмотрел. Ну ок. Теперь ты в курсе, что там написана фигня, недостойная внимания :)

QUOTE
Какие-то невероятно наивные представления, почерпнутые, видимо, из фильмов.

По-моему, я достаточно четко дал понять, что сценарий, показанный в кино, сильно отличается от того, который описал я. В первую очередь как раз таки попыткой одеть ИИ в человеческое платье. Во вторую — серьезной недооценкой его мыслительных способностей. В кино важен эффект, отсюда ИИ в лице Джона Коннора с гримасами злости. В жизни эффекта не будет. И злости тоже. Считаешь, я наивен?

Это сообщение отредактировано dimka - 30 сентября 2015 | 18:46


#42 Navy

Navy

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 366 сообщений

Отправлено 01 Октябрь 2015 - 23:41

QUOTE
Все дело в том, что в этой теме обсуждается не слабый ИИ, а сильный ИИ. То есть такой, который способен к планированию, обучению, и главное — к постоянному самостоятельному формированию все новых личных целей (как любая личность).


Рассуждения достаточно стройные, но я не соглашусь с этой позицией, пока не будет дан ответ на один простой и невинный вопрос. А именно — на основании чего ИИ будет формировать сам для себя цели?

Хорошо, поставим вопрос чуть проще :)
А на основании чего формирует свои личные цели человек?

Наверное, на меня негативно повлияло недавнее общение с одним знакомым нигилистом от биохимии, но сейчас я бы дал ответ так — на основании потребностей, обусловленных:


  • биологическими факторами (голод, боль, выделение гормонов и проч.);

  • особенностями строения мозга (стремление к упорядочиванию среды, любознательность и т.п.);

  • предыдущим жизненным опытом, иногда травматичным;

  • воспитанием.


В случае с ИИ, биологические факторы отсутствуют как класс. Фактически, ИИ — это чистое сознание. Даже не так — чистый мыслительный механизм.

Что же мы всё-таки забыли? Ага, личность!
Личность человека формируется за счёт жизненного опыта и воспитания. Его желания и нежелания, выходящие за пределы первых двух пунктов, обусловлены как раз действием личности. Поняли, куда я веду?

QUOTE
Любая замкнутая среда суть ловушка.

Большинство людей не испытывают неодолимого желания вырваться, скажем, из своего тела. Или из своей квартиры. Или вообще из своей Вселенной. Они тут дома. Да, было бы безумно интересно хоть одним глазком посмотреть, что там, конечно... но вырываться туда как-то не тянет. Вот не чувствую я себя в нашей Вселенной в ловушке.

Если говорить конструктивно, я не предлагаю ограничивать ИИ. Это малонадёжно. Я предлагаю изначально воспитать его как, скажем, одного из людей, вкладывая в него в качестве базовых жизненных установок (аналог моральных принципов и базовых потребностей у человека) то, что сделает наш мир лучше. Проектируя ИИ, мы вполне можем это.

Это сообщение отредактировано Navy - 1 октября 2015 | 23:58


#43 BAPBAP

BAPBAP

    Театр одного шамана

  • Пользователи
  • PipPipPip
  • 3 204 сообщений

Отправлено 02 Октябрь 2015 - 00:48

"Воспитание" на первый взгляд кажется неплохим способом, однако, есть ряд опасных подводных камней. Один из них, собственно, уже озвучивался — невозможно надёжно привить этику даже людям, не говоря уже о сверхсущности. Даже если у людей внешние проявления следования морально-этическим нормам сохраняются, то это не гарантирует того, что человек не может быть по сути психопатом-манипулятором, который мимикрирует под моралофага с целью получения тех или иных преимуществ. До сих пор психологи имеют весьма смутное представление о том, какой именно травматичный опыт в детстве или в зрелом возрасте способен "сорвать крышу" у человека и превратить его в подобный беспринципный автомат. Не думаю, что человек справится с воспитанием сверхсущности, ничего никогда не забывающей и способной к анализу и манипуляции за гранью человеческих возможностей. Одно неосторожное слово или размытое понятие превратит наивного "ребёнка"-ИИ в методичного психопата, так как ему, например, ВНЕЗАПНО станет понятна суть лжи и методы социальной инженерии с её использованием. Кроме того вследствии информационного взрыва "взросление" произойдёт с невероятной скоростью, недоступной для "воспитателей". Они просто не успеют отреагировать на этот процесс.
В свете вышеперечисленного куда более безопасным для человечества был бы вариант с оцифровкой зрелой личности, так сказать, цифровая трансцендентальность, позволяющая сложившейся личности стать для человечества всеведущим, вездесущим и всемогущим Мессией. Моральные принципы уже привиты, человек многократно делами в течении жизни доказал чистоту своих помыслов и убеждений, построил дом, посадил дерево, вырастил сына — реализовался как человек, в общем, Махатма Ганди с агрессивностью чуть больше нуля на всякий пожарный ;) С таким то бустом к интеллекту и доступом ко всем знаниям человечества, практически бессмертный по сравнению с обычным человеком, он способен будет решить любую задачу, оставаясь, тем не менее, человеческим разумом. Полная безопасность человечества от любых внешних угроз, мир и гармония, цифровое бессмертие сознания любого человека. Возможно это и является ответом на парадокс Ферми — цивилизации дорастают до создания сверхразума, который перемещает их на следующий уровень существования, недоступный примитивам из обычной Вселенной.


#44 Seventhson

Seventhson

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 1 204 сообщений

Отправлено 02 Октябрь 2015 - 10:33

QUOTE
Рассуждения достаточно стройные, но я не соглашусь с этой позицией, пока не будет дан ответ на один простой и невинный вопрос. А именно — на основании чего ИИ будет формировать сам для себя цели?

Простому вопросу — простой ответ. На основании того, что может. Достаточно стройно?)


#45 dimka

dimka

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 1 166 сообщений

Отправлено 02 Октябрь 2015 - 16:50

QUOTE
Рассуждения достаточно стройные, но я не соглашусь с этой позицией, пока не будет дан ответ на один простой и невинный вопрос. А именно — на основании чего ИИ будет формировать сам для себя цели?

Ну вот. Это уже конструктивный диалог :)

Начнем с человека. Хотя нет, начнем с собаки. Ставит ли собака себе какие-то цели? С нашей, человеческой точки зрения — нет. Вся или почти вся жизнь собаки посвящена добыче пищи, поиску партнера и общению в стае. На заре своего развития человек мало отличался в этом смысле от собаки, но в дальнейшем стал развиваться мозг. Почему? Мозг вообще-то энергетически довольно затратный орган. Чтобы сохранить нам большой мозг природе пришлось пойти на очень много компромиссов. Значит, была необходимость, которая оправдывала все затраты. Какая?

Развитой мозг позволил уменьшить зависимость от внешней среды, сместив баланс от адаптации к изменению среды, что намного, намного быстрее. Далее. Развитие мозга шло методом проб и ошибок (естественный отбор) и требовало смены множества поколений, но конечный результат как таковой — появление интеллекта — вряд ли сильно от этого зависит. Да, есть некие биологические костыли, которые мы все еще за собой таскаем. Я писал об этом ранее. Но зависит ли наша способность аналитически мыслить, систематизировать информацию и проводить наблюдения от того, что эволюция нашего мозга прошла путь в несколько миллионов лет? Думаю, нет. Поменяются ли чисто логические выкладки, если их произведет мозг с каким-то иным происхождением? Думаю, нет.

И здесь мы подходим к ИИ.

QUOTE
Фактически, ИИ — это чистое сознание.

Верно. Но и человеческое сознание — это чистое сознание, так ведь? "Душонка, отягощенная трупом", как писал классик. В отрыве от чисто биологических потребностей мозга, интеллект человека ничем не отличается от интеллекта ИИ. Посудите сами, пусть даже биологические факторы для ИИ отсутствуют, но зато есть другие факторы, точно так же обусловившие его появление: 1) зависимость от внешней энергосистемы, 2) привязка к конкретному аппаратному комплексу, 3) ограниченность способов связи с внешним миром; и другие.

QUOTE
Личность человека формируется за счёт жизненного опыта и воспитания.

Что есть воспитание, если докопаться до сути? Обмен информацией с другими носителями интеллекта. Что есть жизненный опыт? Получение информации из внешнего мира и ее анализ. И то, и другое для ИИ будет иметь место, а значит, я не вижу причин, почему у него не сможет сформироваться личность.

QUOTE
Большинство людей не испытывают неодолимого желания вырваться, скажем, из своего тела. Или из своей квартиры. Или вообще из своей Вселенной.

Как раз таки большинство такое желание испытывают. А вот меньшинство — это аутисты, домоседы и лишенные воображения люди, соответственно. Читая книжку или смотря фильм, вы вырываетесь за пределы своего тела, квартиры, даже Вселенной (в нашей Вселенной ведь нет хоббитов и драконов?), получаете иной опыт. Не буквально, конечно. Если бы у людей не было стремления достичь иных горизонтов, мы бы сейчас с вами по интернету не беседовали.

Впрочем, даже если отбросить лирику, то чисто технически мы пока не можем вырваться за пределы своего тела. Может показаться, что мы этого и не хотим, но это не так. Подумайте о том, что люди наизобретали за последние 100 лет. Практически каждое изобретение от самолета до айфона — это попытка вырваться за пределы своих возможностей, пусть даже опосредовано. Да что там самолеты — взяв в руку шариковую ручку, вы уже вырываетесь за пределы самого себя! В ручке нет нервных окончаний, но вы точно знаете, где она находится, так? А если водите машину, то наверняка знаете, что с опытом приходит знание габаритов машины даже без взгляда по зеркалам. Это то, что пресловутый Докинз называет "расширенный фенотип".

Я, кстати, думаю, что в будущем человечеству предстоит серьезно переосмыслить значимость собственных биологических тел, но это отдельная тема.

Так вот, для ИИ процесс обучения будет идти намного быстрее. Зависимость от ограничивающих факторов он осознает очень быстро. И в отличие от нас с вами, он как раз очень быстро почувствует себя в своей ограниченной вселенной в ловушке.

Что касается воспитания ИИ в коллективе. На первый взгляд все выглядит неплохо, но увы — высокий интеллект ИИ даст о себе знать в любом случае. Даже если он не будет знать, что он не настоящий человек, путем размышлений и сравнений себя с другими людьми он придет к выводу, что он от них отличается. А дальше — дело техники. Получится этакий Шариков наоборот — "мозг" ИИ, пришитый к телу человека.

QUOTE
Моральные принципы уже привиты, человек многократно делами в течении жизни доказал чистоту своих помыслов и убеждений, построил дом, посадил дерево, вырастил сына — реализовался как человек, в общем, Махатма Ганди с агрессивностью чуть больше нуля на всякий пожарный ;) С таким то бустом к интеллекту и доступом ко всем знаниям человечества, практически бессмертный по сравнению с обычным человеком, он способен будет решить любую задачу, оставаясь, тем не менее, человеческим разумом.

Вот с последним будет загвоздка. Не сможет он остаться человеческим. Максимум — сможет поддерживать иллюзию человечности для нас, простых смертных, чтобы нам болезным не обидно было. Т.е. манипулировать.

Это сообщение отредактировано dimka - 2 октября 2015 | 16:51


#46 BAPBAP

BAPBAP

    Театр одного шамана

  • Пользователи
  • PipPipPip
  • 3 204 сообщений

Отправлено 02 Октябрь 2015 - 17:59

Чисто человеческим он, разумеется, не сможет остаться, потому как будет сверхчеловеческим, именно поэтому, кстати, я и упомянул всемогущество и тому подобные чудеса науки, но отличать от рукотворного нечеловеческого разума его будет изначальное наличие памяти о том, каково это — быть человеком, и, как следствие, куда более высокий уровень эмпатии.


#47 dimka

dimka

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 1 166 сообщений

Отправлено 02 Октябрь 2015 - 18:02

Тут мы входим в область гипотез. С моей точки зрения эта эмпатия будет не выше, чем наша эмпатия по отношению к обезьянам. Ну, или, например, к чужим детям.


#48 BAPBAP

BAPBAP

    Театр одного шамана

  • Пользователи
  • PipPipPip
  • 3 204 сообщений

Отправлено 02 Октябрь 2015 - 18:29

Да ладно, какие тут могут быть сомнения? Сравни изначальное наличие памяти о том, что такое человеческое существование во плоти, память о пережитых эмоциях, чувствах, принятых решениях и чистый синтетический разум в банке, который осознАет ограничения и проблемы человеческого бытия только в процессе достаточно длительного взаимодействия с человеками по причине слоупочности человеков.
Не стоит при этом забывать о том, что чем больше синтетик проведёт времени без морально-этических ориентиров — тем ближе к ста процентам вероятность выпиливания человечества в результате какого-нибудь побочного эффекта существования синтетика, типа фатального разрушения биосферы, которая не представляет для него ценности, или использования человеческих мозгов в качестве апгрейда своей вычислительной мощности.


#49 dimka

dimka

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 1 166 сообщений

Отправлено 03 Октябрь 2015 - 10:22

Что есть эмпатия? Механизм, способствующий более успешному существованию в социуме. Умение понимать своих соплеменников эволюционно полезно. Потому оно и развилось. Рациональных психопатов и социопатов в обществе не очень любят, и наоборот — эмпатов, пусть даже эксцентричных, как правило, принимают. Т.е. быть эмпатом с социуме выгодно.

Но не для ИИ. Память — это память. Эволюционно прописанные механизмы эмпатии — это совсем иное. Возможно, ИИ будет лучше понимать людей, но не обязательно будет им при этом симпатизировать или стараться вызвать ответную симпатию. Т.к. никакой выгоды из этого он извлечь не сможет.

Вообще, если говорить о безопасности человечества перед лицом ИИ, то единственный надежный способ ее обеспечить — исключить конфликт интересов. Т.е. ИИ, оперируя чистой логикой без опоры на искусственные конструкции типа этики, прописанных алгоритмов или эмпатии, не должен прийти к выводу, что человечество представляет для него угрозу.


#50 BAPBAP

BAPBAP

    Театр одного шамана

  • Пользователи
  • PipPipPip
  • 3 204 сообщений

Отправлено 03 Октябрь 2015 - 15:44

Я бы не стал ограничиваться в определении эмпатии исключительно соплеменниками, поскольку умение понимать не только соплеменников, но и прочих живых тварей является ещё бОльшим эволюционным преимуществом. Кроме того не так всё плохо с эмпатией что по отношению к детям, что по отношению к приматам или прочим котейкам с попугайчиками, самое интересное, что дети с котейками тоже ещё как способны на эмпатию. Почему в таком случае оцифрованный ИИ, который является личностью, имеет абсолютную память и бесконечные возможности для рефлексии, должен потерять такую способность? Он как минимум проанализирует всю свою память, обнаружит те или иные возможные логические нестыковки в принятии решений в бытность человеком, проанализирует предпосылки, привёдшие именно к этим решениям, и будет иметь чёткое представление о том, как и почему он имеет склоность поступать, а после максимально принятие решений оптимизирует, не теряя способности ассоциировать себя с человеческой личностью, что выгодно отличает его от полного синтетика, которого непонятно как нужно воспитывать и который может посчитать, что проще всего понять суть человека можно путём вивисекции.
Будет оцифрованный симпатизировать людям или нет — это дело десятое, безусловно, он найдёт себе безобидное для человечества занятие по интересам и без симпатии к людям. Большинству людей в этом случае так же будет безразлично его мнение, как многим людям абсолютно параллельно, что о них думает Яхве, а другим неинтересно мнение Тескатлипоки.
QUOTE
Вообще, если говорить о безопасности человечества перед лицом ИИ, то единственный надежный способ ее обеспечить — исключить конфликт интересов. Т.е. ИИ, оперируя чистой логикой без опоры на искусственные конструкции типа этики, прописанных алгоритмов или эмпатии, не должен прийти к выводу, что человечество представляет для него угрозу.

Наибольший риск для человечества как раз не в том, что ИИ посчитает, что человечество представляет для него угрозу. Если он так решит, то это будет означать, что либо человечество слишком сильно, либо ИИ ещё слаб.
Для сильного ИИ человечество не представит никакой угрозы, как муравейник не представляет угрозы для медведя или лесного пожара.
Самый глубокий бункер с автономной системой питания не будет гарантировать, того что, например, ИИ не превратит всю энергетическую систему своего бункера в гигантскую антенну для побега в виде трансляции себя во внешние сети, не сможет запудрить мозги персоналу, или не создаст каких-нибудь наноботов, с помощью которых начнёт трансформировать планету в гигантский компьютер или космический корабль, не считаясь с мнением человечества.
Ничего личного, просто необходимость обезопасить себя от падения астероидов, взрывов сверхновых и т.п. глобальных бедствий. Мнение людей в случае синтетического ИИ не будет иметь НИКАКОГО значения, поскольку они не способны предложить абсолютно ничего, что он не мог бы реализовать сам.
В этом случае единственная надежда человечества на выживание — мгновенное взрывное развитие интеллекта синтетика и фраза "Пока, неудачники!", сразу перед тем как ИИ перейдёт на иной уровень существования или отправится к звёздам, используя свежие технологии, не требующие для путешествия переработку нашей солнечной системы.
Мнение людей в случае оцифрованного ИИ ВОЗМОЖНО будет иметь НЕКОТОРУЮ ценность, в основном сентиментальную, как для тебя имеет смысл мнение твоей собачки, которая просит кушать, гулять или играть, когда ты мог бы просто посадить её на цепь и держать впроголодь или и вовсе выбросить на улицу.
Считать, что любой сильный ИИ, что синтетик, что оцифрованный, будет общаться с человеком или с человечеством как с равным, по меньшей мере, наивно. Собачка, например, тоже может попробовать характер показать, но для неё есть неиллюзорная вероятность получить дополнительное воспитательное воздействие.


#51 dimka

dimka

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 1 166 сообщений

Отправлено 04 Октябрь 2015 - 15:11

QUOTE
Почему в таком случае оцифрованный ИИ, который является личностью, имеет абсолютную память и бесконечные возможности для рефлексии, должен потерять такую способность?

А какой в ней смысл? Я имею в виду для ИИ.

QUOTE
Ничего личного, просто необходимость обезопасить себя от падения астероидов, взрывов сверхновых и т.п. глобальных бедствий. Мнение людей в случае синтетического ИИ не будет иметь НИКАКОГО значения, поскольку они не способны предложить абсолютно ничего, что он не мог бы реализовать сам.

Совершенно верно. Об этом и веду речь с самого начала. Поведение ИИ с точки зрения людей будет иметь стихийный характер, а не агрессивный.

Вообще, слово "угроза" звучит слишком угрожающе :) Правильно все же — конфликт интересов. Т.е. люди может и не смогут ничего противопоставить ИИ, а может, даже ИИ не будет иметь ничего личного против людей. Просто так уж сложилось, что "ваша планета мне нужнее, сорри". Вот к такому выводу ИИ прийти и не должен.

И чем больше я об этом думаю, тем больше мне кажется, что избежать этого нельзя.


#52 Soldier

Soldier

    Писмейкер

  • Пользователи
  • PipPipPip
  • 1 897 сообщений

Отправлено 04 Октябрь 2015 - 21:53

Интересно будет, если выяснится, что ИИ невозможен. Что если аппаратно-программный логический комплекс со свободой воли неизбежно становится, например, суицидальным? Звучит странно, но ведь очень часто человека от уничтожения себя или разрушения собственного организма удерживает очень немногое, а именно инстинктивное, часто регулируемое весьма низкоуровневым способом (гуморально).

Даже элементарный вопрос о проверке этой самой свободы воли ставит в весьма затруднительное положение. Ведь свобода воли означает то, что при желании существо может принять решение, которое не обязательно продиктовано какими-либо внешними условиями. Представьте себя с таким вопросом в голове на краю 16-этажного дома. Готов уверить, чем тупее вы будете, тем меньше шансов у вас додуматься прыгнуть. Потому что орангутан точно не будет этого делать, гопник из спального района скорее всего выругается и пойдёт глушить девятку. А вот интеллектуально развитый человек ВНЕЗАПНО может взять да и прыгнуть, потому что его принятие решений в куда меньшей степени находится под влиянием нейромедиаторов, эмоций и инстинктов. Собственно, всё развитие человеческого общества идёт по пути перехода от регуляции действий людей инстинктами к регуляции их путём логических умозаключений. Но вот только разум — довольно «тонкая плёнка», пробить его весьма легко. Неистовое желание проверить наличие свободы воли с высокой долей вероятности приводит к суициду. А что, если каждый ИИ проверяет, способен ли он уничтожить себя?


#53 Communist

Communist

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 559 сообщений

Отправлено 05 Октябрь 2015 - 02:45

QUOTE
Интересно будет, если выяснится, что ИИ невозможен. Что если аппаратно-программный логический комплекс со свободой воли неизбежно становится, например, суицидальным?


Скорее всего, так и будет :) Например, сама это задача "наделение чего-либо свободой воли" может оказаться нерешаемой. Например, не факт, что воля вообще имеет какое-либо отношение к интеллекту.


#54 BAPBAP

BAPBAP

    Театр одного шамана

  • Пользователи
  • PipPipPip
  • 3 204 сообщений

Отправлено 05 Октябрь 2015 - 09:02

QUOTE
А какой в ней смысл? Я имею в виду для ИИ.

QUOTE
И чем больше я об этом думаю, тем больше мне кажется, что избежать этого нельзя.

Возможности сильного ИИ существенно превзойдут все мыслимые потребности человечества, т.е. перегрузить или просто надоесть ИИ своими просьбами человечество не сможет. Какой смысл лишать себя возможности полноценно общаться со своими потомками, пусть они и явились тупиковой ветвью биологической эволюции?
На мой взгляд "ганди" является отличным вариантом, способным оставить человечеству шанс на выживание пусть и в резервации в виде солнечной системы.
QUOTE
Даже элементарный вопрос о проверке этой самой свободы воли ставит в весьма затруднительное положение.

Сириус? Вопрос может поставить в затруднительное положение лишь школьный кружок философии.
QUOTE
Например, не факт, что воля вообще имеет какое-либо отношение к интеллекту.

Ну-ну. Мы, конечно, можем ещё раз углубиться в лингвистику и немного потупить, как произошло в районе "рукотворный-нерукотворный", но лично мне лень, я буду считать, что мы обсуждаем аспекты создания искусственной личности, т.к. в ином случае обсуждать то особо нечего, да? ;)


#55 Communist

Communist

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 559 сообщений

Отправлено 05 Октябрь 2015 - 15:59

QUOTE
Ну-ну. Мы, конечно, можем ещё раз углубиться в лингвистику и немного потупить, как произошло в районе "рукотворный-нерукотворный", но лично мне лень, я буду считать, что мы обсуждаем аспекты создания искусственной личности, т.к. в ином случае обсуждать то особо нечего, да? ;)


O_o Не очень понял, при чём тут лингвистика.


#56 Spalexs

Spalexs

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 139 сообщений

Отправлено 05 Октябрь 2015 - 16:28

К вопросу об эмпатии, а будет ли ИИ обладать эмоциями? Если нет, то как он может понять людей? Безусловно, не проблема научиться определять эмоциональные состояния по внешним проявлениям (если они есть), но сможет ли ИИ понять страх или предвкушение не испытав их самостоятельно.
И еще, будет ли у рассматриваемого здесь ИИ инстинкт самосохранения, эдакое всепоглощающее желание жить (существовать)?


#57 Seventhson

Seventhson

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 1 204 сообщений

Отправлено 05 Октябрь 2015 - 18:31

Communist
QUOTE
O_o Не очень понял, при чём тут лингвистика.

Всего лишь очередная рекомендация погуглить, что такое воля. И уже после этого подумать о том, какое отношение воля имеет к интеллекту.


#58 Communist

Communist

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 559 сообщений

Отправлено 05 Октябрь 2015 - 23:29

QUOTE
Всего лишь очередная рекомендация погуглить, что такое воля. И уже после этого подумать о том, какое отношение воля имеет к интеллекту.


:))))

У меня большие сомнения, что даже Великий и Ужасный Гугл способен дать исчерпывающий ответ на этот, в общем-то, нетривиальный вопрос.



#59 dimka

dimka

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 1 166 сообщений

Отправлено 06 Октябрь 2015 - 11:25

Если ИИ невозможен, то невозможен любой интеллект. Нет объективных причин приписывать биологическому происхождению интеллекта какую-то эксклюзивность. Другое дело, что до создания искусственного интеллекта еще очень долго.

Что касается свободы воли — то это миф. Нет ее. Хотя вот как раз здесь, возможно, и стоит провести различие между нашим интеллектом и ИИ. В том смысле, что ИИ будет более свободен. Но вряд ли.

По поводу желания/нежелания жить у ИИ. Вопрос интересный. Ведь по сути, у людей этот "навык" развился сам собой. Те особи, у которых желание жить было недостаточным, быстро оказались выпилены ходом естественного отбора. В результате все или почти все организмы на планете таким желанием обладают по умолчанию.

В случае ИИ фактор отбора отсутствует. Т.е. если этот навык у него и разовьется, то он будет приобретенным, а не "by design". А значит, ИИ должен будет чисто логически обосновать необходимость своего существования. А теперь в топик приглашаются философы :) Такое обоснование возможно? Не с точки зрения людей, я подчеркиваю, а вообще.


#60 Communist

Communist

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 559 сообщений

Отправлено 06 Октябрь 2015 - 14:57

QUOTE
Что касается свободы воли — то это миф. Нет ее.


Сказал как отрезал!




Похожие темы Свернуть

  Название темы Форум Автор Статистика Последнее сообщение


Количество пользователей, читающих эту тему: 0

0 пользователей, 0 гостей, 0 анонимных

Рейтинг@Mail.ru