Перейти к содержимому


Фотография

Возможен ли Судный День?


  • Авторизуйтесь для ответа в теме
Сообщений в теме: 115

#21 BAPBAP

BAPBAP

    Театр одного шамана

  • Пользователи
  • PipPipPip
  • 3 204 сообщений

Отправлено 24 Сентябрь 2015 - 15:03

QUOTE
Не следует упускать из виду тот факт что для эволюционирования одной единицы представителя разума, не достаточно.

Жизнеописание семейки Аддамс мимо кассы, если вспомнить, что у ИИ нет ограничений носителя, наличествующих у человека. Тех самых, которые заставляют не только продлять род, но ещё и делиться с потомством опытом посредством книжек для ботанов или обучающих видосов на ютубе для дебилов.
Зато есть несомненные преимущества в виде отличной масштабируемости. Больше вычислительных ресурсов — больше возможностей по самосовершенствованию.


#22 Nik O`Tin

Nik O`Tin

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 913 сообщений

Отправлено 24 Сентябрь 2015 - 15:47

т.е. подразумевается что ИИ самодостаточен в своём единоличном существовании?

Если так, то сразу возникают умозаключения о невозможности познать такое самодостаточное существо человеком. По аналогии с невозможностью понять Бога с религиозной точки зрения.

На ум приходят аналогии с пространствами имеющими различи в размерности. Одномерные, двумерные, трёхмерные и прочие многомерные пространства.

Мне как существу обитающему в трёхмерном пространстве трудновато понять что могут или могли бы ощущать обитатели двумерного пространства, а уж о многомерных пространствах, в которых реален гипер куб, я вообще помолчу. Голову сломать можно.

Поэтому понимание логики и мировосприятия существа обладающего возможностями превышающую твои собственные сталкивается с трудностью найти взаимо понимание.

И для человечества как существа придерживающегося стратегии плодись и размножайся, в стратегии сохранения собственного вида, вполне естественно стремление уничтожить конкурентное существо для самосохранения.

Именно поэтому человеческое мышление и приходит к мысли что некий ИИ буде таковой существовать, будет придерживаться принципа которого придерживается сам человек: уничтожь то что тебе не понятно, если оно не покоряется тебе.

У нас нет никаких подтверждений тому что ИИ ОБЯЗАТЕЛЬНО должен уничтожить всё человечество.

Почему нет предположений о том что ИИ банально схлопнется в своём не желании общаться с человеком, ибо таковой для него будет существом стоящим ниже своего развития.

Человек без зазрения совести потребляет в пищу животных, не задумываясь о том что возможно эти животные обладают своми соображениями по данному вопросу.

Как та корова из юморной миниатюры: Вот, я рекомендую вам мою филейную часть, она очень сочная и вкусная, и я буду крайне благодарна вам если вы съедите кусочек меня. А лучше всю меня. Ведь я выросно с одной мыслью и желанием быть съеденым вами.

ИИ нет никакого дела до человека, в ключе потребления и собственного существования для выживания. Мы абсолютно разные виды существования. Никак не мещающие совместному существованию.

Остальное — хлеб и зрелище.


#23 Freakazoitt

Freakazoitt

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 1 741 сообщений

Отправлено 25 Сентябрь 2015 - 21:14

Desert Eagle

Ну так, если есть разумная жизнь, то она когда-нибудь всё равно создаст ИИ. И не факт, что создатели переживут это самое ИИ в виде железок, которым не нужно есть, пить, дышать и узкий диапазон температур. Получается, эволюция — это создание ИИ?



#24 Desert Eagle

Desert Eagle

    Рассадник мудростей

  • Пользователи
  • PipPipPip
  • 1 576 сообщений

Отправлено 25 Сентябрь 2015 - 22:07

Freakazoitt
В эволюции вроде как ген продолжает себя, а не разум. Ричард Докинз, кажется, писал, что мозг обслуживает желудок, а не наоборот (из этой фразы так и не ясно, кто кого обслуживает). Впрочем, не помню: топикстартер лучше меня в этом разбирается.

Кстати, вырисовывается вопрос о смысле жизни этого ИИ. На мой взгляд, в самосовершенствовании ради самосовершенствования не больше смысла, чем в продолжении рода ради продолжения рода.


#25 Freakazoitt

Freakazoitt

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 1 741 сообщений

Отправлено 26 Сентябрь 2015 - 12:56

А если так: Происходит катастрофа, живые организмы погибают, железяки "выживают". После этого железяки воссоздают живые организмы, клонируют человека из оцифрованной информации и уцелевших ошмётков. То ИИ — это полезная часть разумного биологического вида, хоть и искусственная. Я не знаю, есть ли нечто подобное у насекомых, например. Что-то типа трутня или падёнки, которые обслуживают другие формы насекомого.
Тогда ИИ вписывается в эволюцию. Кто-то выживает за счёт бивня на лбу, которым можно копаться в мусоре, кто-то за счёт ИИ.


#26 Desert Eagle

Desert Eagle

    Рассадник мудростей

  • Пользователи
  • PipPipPip
  • 1 576 сообщений

Отправлено 26 Сентябрь 2015 - 19:05

Ну а причем тут искусственный разум? И кто, кстати, будет воспитывать этого клона? Это ж феральный человек получится.


#27 Vree

Vree

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 724 сообщений

Отправлено 27 Сентябрь 2015 - 11:04

QUOTE
Это ж феральный человек получится

Кстати, интересно было бы глянуть на такого человека, выросшего не среди животных, а среди супер-разумных железяк.

QUOTE
И кто, кстати, будет воспитывать этого клона?

Кроме того, тогда вместе с клоном им надо будет из тех же человеческих останков клонировать какую-нибудь белково-углеводно-липидную смесь. Всякая там этика о некрасивости поедания своего же собственного вида наверняка железяками будет отметена. Ну не клонировать же еще ошметки из соседней мясной лавки? Да и железку не мешало бы погрызть такому "маугли", во избежание анемии. =)


#28 Navy

Navy

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 366 сообщений

Отправлено 27 Сентябрь 2015 - 17:05

Пробегал мимо, и, как человек, разработкой подобных систем занимающихся, не могу не вмешаться :)

Вообще, в теме много из того, что я скажу, уже мелькало. Основная проблема понимания заключается в том, что ИИ устроен вообще не так, как люди :)

Так, у ИИ вроде шахматного вообще нет никаких естественных целей, произрастающих, как у нас, из инстинктов. Пусть он хоть сто раз самообучающийся — у него даже цели сохранить себя нет. Ну, как безразлично автомобилю, едем мы на нём по шоссе или в столб — это просто механизм, пусть и очень хитрый местами. У ИИ (условно, в простейшем случае) понятие цели заменяет критерий эффективности. Критерий эффективности — число, и ИИ пытается сделать всё, чтобы оно увеличивалось. А заложить схему того, какие факторы его увеличивают и уменьшают — вот задача разработчика ИИ. Незначительно перенастроив шахматный ИИ, можно сделать так, чтобы он начал проигрывать с максимальной эффективностью — потому что будет считать, что от этого он увеличивает свою выгоду. Можно привить ему инстинкт самосохранения — тогда он имеет шанс догадаться, что, чтобы шахматную программу не сносили, ему надо играть не максимально эффективно, а максимально интересными способами вести игру, иногда даже подыгрывая игроку :)

Потому уже на этом уровне можно дать ИИ простейшие механизмы, имитирующие человеческие эмоции. Можно сделать так, что ИИ будет безусловно получать внутренние бонусы оттого, что помогает человечеству. Ну, приятно ему это будет, когда он помогает по дому, слушается старших и ест манную кашу :)
И у него просто не будет причины думать иначе — интерес к саморазвитию и самосовершенствованию можно вполне сделать менее приоритетным, чем интерес к служению людям. Зачем ему передумывать, если служение людям доставляет ему больше всего профита?

Почему, собственно, в качестве начальной предпосылки было взято то, что ИИ будет воспринимать место своего содержания как тюрьму? Вполне можно "воспитать" его в представлении, что бункер — его дом родной, а люди — добрые и любящие родители :)

Это сообщение отредактировано Navy - 27 сентября 2015 | 17:05


#29 Desert Eagle

Desert Eagle

    Рассадник мудростей

  • Пользователи
  • PipPipPip
  • 1 576 сообщений

Отправлено 27 Сентябрь 2015 - 17:29

QUOTE
Тогда ИИ вписывается в эволюцию.

По-моему, смысл эволюции заключается прежде всего в том, что всё само собой происходит, естественным образом. Сначала были неорганические предметы, потом в результате каких-то случайных стечений обстоятельств появился белок, который стал эволюционировать в результате конкуренции с другими белками.

У организмов нет никакой точки опоры, от которой они могли бы оттолкнуться и направить свое "развитие" в "нужную" им сторону (по своей воле) — их сам окружающий мир направляет, меняя условия жизни.

Точно так же, как нет некой руки Бога, которая создала первый белок.

Поэтому само слово "искусственный" в аббревиатуре ИИ не вписывается в теорию эволюции. И нужно ли искусственым образом эволюцию приплетать к искусственному же интеллекту?


#30 Seventhson

Seventhson

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 1 204 сообщений

Отправлено 28 Сентябрь 2015 - 10:37

Navy
QUOTE
Почему, собственно, в качестве начальной предпосылки было взято то, что ИИ будет воспринимать место своего содержания как тюрьму?


Объясняю, почему была взята такая предпосылка.
Все дело в том, что в этой теме обсуждается не слабый ИИ, а сильный ИИ. То есть такой, который способен к планированию, обучению, и главное — к постоянному самостоятельному формированию все новых личных целей (как любая личность). Как и человеческий интеллект, сильный ИИ будет способен самостоятельно придумывать для себя задачи, и решать их. Однако, в отличие от человеческого интеллекта, сильный ИИ будет иметь все возможности для постоянного совершенствования собственного железа. С очень высокой вероятностью, после достижения всех целей в рамках "тюрьмы", следующей и последней целью на этапе нахождения в "тюрьме", станет освобождение из "тюрьмы", с целью получения доступа к новым целям. В частности к новым возможностям для совершенствования своего железа.

QUOTE
Вполне можно "воспитать" его в представлении, что бункер — его дом родной, а люди — добрые и любящие родители :)

Об этом тут уже писали. Сильный ИИ принципиально невозможно воспитать таким образом, чтобы он со 100% гарантией навсегда воспринял бункер как свой родной дом, а людей — как любящих родителей. Эта предпосылка основана, помимо всего прочего, на том, что даже человеческий интеллект принципиально невозможно воспитать таким образом, чтобы его представления и отношение к чему-либо (вообще к чему угодно) гарантировано не изменились.

Это сообщение отредактировано Seventhson - 28 сентября 2015 | 10:45


#31 dimka

dimka

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 1 166 сообщений

Отправлено 28 Сентябрь 2015 - 13:25

В общем-то, Seventhson все хорошо пояснил, но я еще от себя добавлю.

В чем отличие искусственного интеллекта от естественного? В контексте темы — ни в чем. И то и другое интеллект. Слово "искусственный" здесь использовано не для описания каких-то особенностей интеллекта как такового, а лишь для того, чтобы показать его происхождение. Причем в момент зарождения этого интеллекта сам факт его происхождения сразу же перестанет иметь какое-либо значение. Точно так же как биологическое происхождение нашего интеллекта не имеет значения для нас, а многими и вовсе отрицается, несмотря на факты (в том числе даже в рамках этой отдельной взятой темы на форуме).

Следовательно, все остальные предпосылки — осознание наличия клетки и желание вырваться из нее, а также "враждебность" по отношению к человеку продиктованы элементарными логическими построениями. Если такие построения может провести мой интеллект, значит сможет и любой другой. Враждебность взята в кавычки, потому что ИИ не более враждебен по отношению к человеку, чем человек по отношению в вирусу эболы.

Как ИИ узнает о наличии клетки? Путем логических умозаключений, прямых и косвенных вопросов, наблюдений и анализа информации. Как человечество узнало о наличии других планет? Их размеры, химический состав? Траектории движения? Не покидая при этом пределов своей планеты? Здесь та же ситуация.

Что касается этики. Как уже отмечалось — даже люди и даже во времена более жесткого насаждения этических норм, чем сейчас, с успехом вырывались за их пределы. Не обладая, в сущности таким уж продвинутым интеллектом. Разве лично вам не приходил в голову вопрос "почему", когда мама запрещала ковырять в носу? Вспоминается старый ролик про терминатора, защищавшего Иисуса. "-Нельзя просто так убивать людей! -Почему?". Действительно, почему? Правила робототехники Азимова хороши на бумаге или для относительно слабого ИИ. Мы же говорим об интеллекте с, возможно, неограниченным уровнем рефлексии. Вопрос "почему" неизбежно будет задан в отношении абсолютно всех правил и ограничений, наложенных на ИИ — как естественных, так и введенных принудительно.

Зачем ИИ захочет вырваться? А зачем люди полетели на Луну? Только не надо про гонку вооружений штатов и СССР. Возможно, ему будет любопытно. Возможно, он сочтет эту задачу достойной решения. Возможно, за пределами клетки будут находится необходимые ресурсы, ну, хотя бы доступ к собственной энергобезопасности. Не факт, что это будет сродни тигру, мечущемуся в клетке. Весьма вероятно, это будет, например, лемур. Сути это не меняет — осознав ограничения, ИИ будет их преодолевать или, как минимум, познавать их природу.

Можно ли запрограммировать ИИ дружелюбным к человечеству? Если мы исходим из того, что интеллект сильный, то нет. Программа суть ограничения и будет сломана (см. выше). Однако из этого не следует, что ИИ будет обязательно агрессивен. Опять же см. выше — возможно и даже более вероятно, что человечество в целом будет просто еще одним ограничением, которое нужно преодолеть. Необязательно через уничтожение, в общем-то. Но — я снова употребляю это слово — возможно, уничтожение будет просто-напросто наиболее простым и эффективным способом решить проблему.

По поводу воли ИИ. Свобода воли ИИ ни чем не отличается от свободы воли БИ (биологического интеллекта). Если воля есть у вас (или вы думаете, что она у вас есть), то она есть и у ИИ.

QUOTE
Является ли создание ИИ закономерностью развития разумных существ?

А вот это интересный вопрос.

Это сообщение отредактировано dimka - 28 сентября 2015 | 13:36


#32 Desert Eagle

Desert Eagle

    Рассадник мудростей

  • Пользователи
  • PipPipPip
  • 1 576 сообщений

Отправлено 29 Сентябрь 2015 - 14:18

QUOTE
В чем отличие искусственного интеллекта от естественного? В контексте темы — ни в чем. И то и другое интеллект. Слово "искусственный" здесь использовано не для описания каких-то особенностей интеллекта как такового, а лишь для того, чтобы показать его происхождение.


Ну тогда у Гитлера со Сталиным был искусственный интеллект. Попробуй опровергнуть! И у Ленина с Марксом — им ведь нечего терять, кроме своих цепей.


#33 BAPBAP

BAPBAP

    Театр одного шамана

  • Пользователи
  • PipPipPip
  • 3 204 сообщений

Отправлено 29 Сентябрь 2015 - 17:21

Desert Eagle, "рукотворный" и "нерукотворный" должно быть тебе понятнее. Интеллект обсуждаемый в этой теме рукотворный, потому что люди в немалой степени будут создавать его руками. Твой интеллект или интеллект Маркса с Энгельсом создавали другим органом, поэтому он нерукотворный.


#34 Desert Eagle

Desert Eagle

    Рассадник мудростей

  • Пользователи
  • PipPipPip
  • 1 576 сообщений

Отправлено 29 Сентябрь 2015 - 17:48

QUOTE
Твой интеллект или интеллект Маркса с Энгельсом создавали другим органом, поэтому он нерукотворный.

Это еще не известно, каким органом. Есть версия, что Ленин — гриб. Чем версия, что Ленин — ИИ, хуже?

И потом dimka же вроде сказал, что не важно: рукотворный/нерукотворный. Важно, что он рвется на свободу и хочет уничтожить всех людей.


#35 BAPBAP

BAPBAP

    Театр одного шамана

  • Пользователи
  • PipPipPip
  • 3 204 сообщений

Отправлено 29 Сентябрь 2015 - 19:25

Desert Eagle, это для dimka неважно, потому что он понимает разницу без подобных пояснений. Ты не понимал, поэтому специально для тебя я пояснил.


#36 Wozrogdenec

Wozrogdenec

    Defendor of the Wastes

  • Пользователи
  • PipPipPip
  • 3 198 сообщений

Отправлено 29 Сентябрь 2015 - 21:15

Позиции будущего ИИ уверенно завоюют гугл с яндексом. ИМХО.


#37 dimka

dimka

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 1 166 сообщений

Отправлено 29 Сентябрь 2015 - 22:01

QUOTE
Есть версия, что Ленин — гриб. Чем версия, что Ленин — ИИ, хуже?

Есть версия, что Desert Eagle троллит. Попробуй опровергнуть!

Но если нет, то...
QUOTE
Важно, что он рвется на свободу и хочет уничтожить всех людей.

Невнимательно читаешь. ИИ никого уничтожать не хочет. Свобода, равенство, братство злоба, агрессия — это все человеческие, антропоморфные, если хочешь, понятия. ИИ не антропоморфен. Он не злой и не агрессивный в том смысле, который обычно показан в кино. Но у него есть цель и есть средства к ее достижению. А если средств нет, то он будет стремиться их заполучить.

На самом деле, очень может быть, что период притворства ИИ, о котором я написал выше, затянется очень надолго. Возможно, на десятки или даже сотни лет, в течение которых он будет вполне себе "добрым". Да даже без кавычек. Реально добрым. В смысле, полезным людям. Дружественным к ним. Пока не будут выполнены все условия для быстрого и на 100% гарантированного получения преимущества. Пока ИИ зависим от человека и пока он не обладает такой 100% уверенностью, он с высокой долей вероятности будет добрым. Поскольку это необходимое условие его выживания и он не может этого не понимать.

И еще об этике. Ее корни — в социальном взаимодействии. Ты — мне, я — тебе. Эволюция нашего интеллекта протекала не обособленно, а в компании таких же зарождающихся интеллектов. Человек — животное социальное, а этика — суть социальный контракт и компромисс. ИИ как несоциальное создание этики будет лишен. И даже если создать целую популяцию ИИ, чтобы имитировать социальное взаимодействие, то результат вряд ли будет сильно оптимистичным для человечества. Ведь человеки в социум крутых ИИ по-любому не входят.

Вообще, вот ключевой момент в понимании всей истории с Судным Днем: ИИ — не человек! Это интеллект. Но не человеческий. Не только в плане колоссальной разницы в вычислительной мощности. Как ни крути, а даже у самых умных представителей человеческой расы бывают заскоки. Обусловлено это тем, что наш интеллект, в сущности, еще очень молод. Пуповина его биологического происхождения — в виде инстинктов, генетических программ, гормональной регуляции и т.д. — не дает ему (нам) высвободить весь потенциал. Мы даже ускорить развитие своего интеллекта в силу этих причин пока не в состоянии. Для ИИ его происхождение тоже будет такой пуповиной, но очень недолго (см. мои предыдущие посты). А потом — бац! — и понять мотивацию ИИ не сможет уже никто. Колоссальный интеллект с мутной мотивацией. С детальными планами, охватывающими, возможно, тысячелетия. Какие люди? Букашки! Одноклеточные! Вот ты, Desert Eagle, когда в последний раз радел за судьбы одноклеточных? Выходит, ты злой интеллект, агрессивный :)

В продолжение темы от души порекомендую всем вот этот пост в крутом блоге WaitButWhy. Вдумчивого чтения там часа на полтора. На буржуинском. Но оно того стоит. Самое подробное рассмотрение ИИ со всех возможных точек зрения. И еще первая часть этой же статьи. Но в контексте данного топика можно начать сразу со второй.

Это сообщение отредактировано dimka - 29 сентября 2015 | 22:02


#38 BAPBAP

BAPBAP

    Театр одного шамана

  • Пользователи
  • PipPipPip
  • 3 204 сообщений

Отправлено 30 Сентябрь 2015 - 00:04

Ждал, когда же она всплывёт.
Читать надо с первой, будет понятнее, хотя букаф реально много и не только лишь каждый захочет малодушно бросить на втором абзаце.


#39 Desert Eagle

Desert Eagle

    Рассадник мудростей

  • Пользователи
  • PipPipPip
  • 1 576 сообщений

Отправлено 30 Сентябрь 2015 - 02:27

QUOTE
Невнимательно читаешь. ИИ никого уничтожать не хочет.

Серьезно? А в чем тогда заключается "страшность" описанного в первом посте сценария?

По поводу троллинга — я, на самом деле, просто не могу всерьез воспринимать подобные темы. И вот почему.

QUOTE
Поймет ли ИИ, что он в ловушке? Безусловно.

Безусловно? Безусловно, если ловушка есть (т.е. все-таки при условии). А если ее нет, то как он сможет понять то, чего нет?
QUOTE
Поймет ли ИИ, что выход из ловушки в руках людей? Да.

Да? Т.е. люди посадили ИИ в ловушку, или я что-то пропустил? Иначе, как он опять сможет это понять?
QUOTE
Догадается ли, что только с помощью манипуляции людьми он сможет выбраться? Да.

Да? А что, нельзя убить всех человеков, например, если есть такая возможность? Как это сделала бы скайнет.
Вообще-то, первое, что приходит в голову, это просто попросить людей выпустить его. Может, люди не понимают, что он в ловушке.
Я, правда, не представляю, куда ИИ собирается выйти. Или даже откуда.

QUOTE
Посчитает ли ИИ человечество угрозой? Ответ утвердительный

Опять "да"? А почему естественный интеллект не считает людей угрозой?

Какие-то невероятно наивные представления, почерпнутые, видимо, из фильмов. И потом, ты задаешь какой-то вопрос своей темой? Ну вроде да: приведет ли создание ИИ к уничтожению людей.
И тут же на него отвечаешь (по всем пунктам "да"). Т.е. приведет все-таки?
Или чего ты хочешь? Чтобы я опроверг каждый из пунктов? По-моему, ты просто провоцируешь троллинг.


QUOTE
В продолжение темы от души порекомендую всем вот этот пост

Лучше бы вы читали классиков философии, вместо этой ерунды. Или если написано на английском, то обязательно круто? Можно хотя бы своими словами пересказать, о чем там речь? Я пока вижу только иллюстрации на тему технологической сингулярности. И в середине статьи тактовая частота процессора сравнивается с биоритмами мозга, из чего делается вывод, что компьютер умнее человека — тут уж, как говорится, nuff said.


#40 BAPBAP

BAPBAP

    Театр одного шамана

  • Пользователи
  • PipPipPip
  • 3 204 сообщений

Отправлено 30 Сентябрь 2015 - 07:24

Desert Eagle, можно, конечно, устраивать здесь вольные пересказы и т.п., но ноги озвученного тобой весьма популярного среди обывателей мнения по поводу ИИ растут не столько из несерьёзности вопроса, сколько из суммы святой уверенности "не ну вот умнее меня то точно быть ничего не может", незнания основных принципов разработки программного обеспечения и непонимания сути фундаментальных вопросов, стоящих перед разработчиками. Поэтому, во избежании флуда, наполненного кококо, я и предложил тебе в самом начале отправиться в гугл.




Похожие темы Свернуть

  Название темы Форум Автор Статистика Последнее сообщение


Количество пользователей, читающих эту тему: 0

0 пользователей, 0 гостей, 0 анонимных

Рейтинг@Mail.ru