У меня есть любимое изречение, относящиеся к вере в Бога, которое одной фразой может передавать всю суть вопроса религии: "Не Бог создал человека по своему образу и подобию, а человек создал Бога по своему подобию".
Вот, примерно тоже самое происходит и с обсуждением создания ИИ, — люди создают его по своему образу и подобию. Я сейчас говорю не об обсуждениях этого вопроса на покерном форуме, а изучении данной проблемы (безопасность ИИ, и само создание такового) авторитетными людьми, занимающимися данной областью. Их авторитет и знание смежных областей, связанных с ИИ, так же может быть поколебим, неважно сколько этим вопрос они занимаются. Даже каждый из нас может попробовать часть авторитетного мнения свести к неосознанному заблуждению эксперта.
Помните интересное видео, которое добавил феруел в свой колодец: ТЕД-конференция о безопасности ИИ
http://www.ted.com/talks/nick_bostrom_what_happens_when_our_computers_get_smarter_than_we_are?language=ru#t-717505 (не могу его найти в его постах, — по какой-то причине оно отсутствует). Ник Бостром со сцены презентует свой достаточно интересный доклад. Но есть в нём одно очень слабое место, которое ставит под сомнение все сказанное им. То есть, не 100% опровергает его слова (так как достаточно логичные вещи спикер озвучивает), а снимает с их автора неоспоримый авторитет.
Логика моя простая: если в убеждениях есть одно явное заблуждение, то оно ставит под сомнение весь доклад.
Например, я могу рассказывать вам о различных сложных концепциях покерной теории, которые будут походить на правду, но после заявить, что сбрасываю АА префлоп, так как мной проверено на опыте, что на них постоянно проигрываю. Естественно, данное утверждение поставит на мне крест, как на компетентном игроке, несмотря на то, что я до этого говорил. Одного явного заблуждения хватает, чтобы поставить под сомнение всю теорию любой идеи, особенно в сложных, спорных, и мало изученных вопросах.
В этом посте я всего лишь укажу на тот момент, который я считаю глубочайшим заблуждением, высказанным Ником Бостромом, чтобы кто-нибудь из формучан, при желании оспорил его, или же сказал, что мои мысли верны. И, так как вопрос ИИ невероятно сложен (это не в карты играть), то с лёгкостью можно считать, что все логичные предположения докладчика могут так же быть заблуждением.
Ник Бострум заявил, что шимпанзе выгодно было, чтобы не появились мы (разумные люди). Даже пошутил по этому поводу. Аргументы против его слов, на мой взгляд, найти очень просто (можно даже немного подумать): и для шимпанзе не то, чтобы всё равно на наше развитие, как вида, — им даже выгодно (или более выгодно, чем не развитие). То есть, по моему мнению, это даже не спорный вопрос, как многие другие.
И если он явно заблуждается в одном, то весь доклад легко может быть сомнительным с точки зрения объективности, а не потому что нелогичные идеи (всё даже очень интересно).
Главное, если дальше продолжить размышление, делая сравнения, и оглядываясь на опыт "человек — шимпанзе", где человек можно представить, как ИИ, а обезьян — нами (это только для изучения вопроса безопасности), то можно прийти к выводу, что опасения по поводу агрессивности ИИ излишне, более, чем опасность нахождения у людей ядерного оружия.
Но здесь я не буду пояснять свои мысли — мне интересны чужие, которые может кто-то выскажет: шимпанзе выгодно появления нашего вида? И если да, то стоит ли нам, — шимпанзе относительно ИИ, — искать какие-то риски?
Внимание, всё дальнейшее касается именно полноценного интеллекта с всесторонней системой целеполагания, а не условного "абсолютного оружия", необходимость запрета разработки которого бесспорна.
Смотрите: никто не сомневается, что искусственный интеллект будет несоизмеримо более могучим, чем человеческий. И все наши опасения заключаются только в том, что он может из своих соображений уничтожить человечество.
Однако, представьте себе масштаб задач, которые сможет решать этот сверхинтеллект! Сфера Шварцшильда, освоение Галактики, может даже преодоление проблемы смерти Вселенной.
Ещё раз:искусственный интеллект сможет справиться с проблемами Вселенского масштаба.
Морально ли ограничивать его появление, или пытаться наложить на него некие искусственные "оковы" ради такой мелочи (во вселенском масштабе), как угроза уничтожения человечества?
И чем это отличается от любого другого асоциального поведения, например, продажи пиццы в целях личного обогащения?
Итак формулируем два вопроса:
1. Не слишком ли много человечество о себе возомнило? Может быть, если Сверхразум самостоятельно решит, что человечество должно быть уничтожено - это будет корректное и оптимальное решение?
2. Если можно совершать Вселенский вред ради частных интересов Человечества, то почему нельзя совершать общечеловеческий вред ради интересов индивидуума? Где грань?