Цитата (DimOK @ 25.3.2017)
Ну как можно говорить о непостижимой "крутизне" АИ, когда вся она состоит просто в способности анализировать модели с большим количеством факторов, чем доступно человеческому сознанию.
Чтобы смоделировать, как будет себя вести идеальный интеллект - возьмите модель с малым количеством факторов для анализа (пресловутые настольные игры) и попробуйте её решить. АИ будет вести себя так же, как вы - используя логику и знания о взаимодействии факторов на модель (полученные в результатах испытаний или же выведенных логически).
И совершенно очевидно (мне, по-крайней мере), что базовые понятия, такие как расчёт функции полезности, или логика никак не будут отличаться.
То, что описывает Soul, когда тупо максимизируется количество скрепок - это очень куцая функция полезности, зависящая от одного фактора, очевидно, что этих факторов может и должно быть намного больше.
В итоге функция может выглядеть как "сделай всем хорошо", где под хорошо понимается продуктивность, продолжительность жизни и оценка качества этой жизни каждой разумной единицы, находящейся в сфере влияния АИ. Ну или это может быть "обеспечь максимальную скорость своего развития", где, возможно, оптимальным решением будет уничтожить всё существующее, чтобы освободить ресурсы для собственного роста.
Короче ничем АИ не будет отличаться от Ивана Демидова, кроме умения правильно оценивать и учитывать в своих моделях большое (очень большое!) количество факторов и не делать логических ошибок в рассуждениях и при разработке этих самых моделей.
Ты не учитываешь то, что задача многокритериальной оптимизации вообще не решаема ни численно, ни даже аналитически. Всё, что мы научились делать - это каким-то образом (взвешиванием критериев и пр.) сводить несколько критериев в один интегральный и дальше оптимизировать функцию для максимизации полезности по этому интегральному критерию.
Лично мне очевидно, что такой интегральный метод обязательно где-то в пределе приведёт к "АИ, максимизирующему скрепки", так что при создании АИ он точно недопустим.
Вот например, пусть мы создаём АИ-идеального "пастуха" для человечества. Попробуй придумать, как оптимизировать критерии: количество живых людей, продолжительность их жизни, уровень их счастья, отсутствие их мучений и ещё с десяток.
В отличие от технической составляющей АИ, в этой (а ведь она значительно более важна) базовой я вообще не вижу, как подступиться к её решению в тех случаях, когда нет полного доминирования (ясно, что тысяча счастливых людей лучше, чем сто удовлетворённых, но что лучше: сто счастливых или тысяча удовлетворённых?)
Вот поэтому я и хочу чтобы кто-то просто привел мне прецеденты, и если они покажутся мне подходящими на первый взгляд, я почитаю про них подробнее.