Цитата (БоевойСлон @ 12.10.2016)
2) Value learning. Как научить ИИ понимать человеческие ценности?
Как я понимаю, большая часть человеческих ценностей задается в процессе обучения через рефлексы. Сделал плохо - получи укол боли, сделал хорошо - получил укол удовольствия.
Создать такие центры удовольствия/негатива в ИИ - вероятно, можно.
Но кто захочет испытывать укол боли напрямую в мозг? Даже мазохизм построен на стимуляции центра удовольствия опиатами и прочими штуками. Любой человек, будь это в его власти, откажется испытывать негатив добровольно. Но мы не властны над нашим мозгом, и почти не можем повлиять на его устройство. Именно по этой причине, кмк, и возможно обучение человеческим ценностям.
В случае компьютерной программы, которая гораздо более пластична в своем устройстве, это выглядит более сложной задачей. Её, по всей видимости, нужно будет решать через организацию прав доступа и нагромождение
уровней абстракции.
Но с уровнями абстракции какая ситуация, - обычно, они серьезно замедляют производительность работы программы. В разы и на порядки. И тут, кроме технических проблем, встает серьезная проблема гуманитарного характера.
Предположим, что мы находимся в 2050г.
За несколько лет до этого ученые доказали - триллиард мемристоров, объединенных вместе, могут считать сильный ИИ. Многие развитые страны уже могут создать этот триллиард мемристоров, но не делают этого, т.к. боятся неконтролируемого ИИ. Вместо этого они громоздят уровни абстракции, придумывают какие-нибудь специфичные алгоритмы и ждут момента, когда промышленность сможет создать 10 триллиардов мемристоров. Вот уж на этих 10 триллиардах и запустят в безопасном режиме AI.exe.
В этот момент первая страна, которая запустит ИИ на 1 триллиарде мемристоров - получит абсолютное конкурентное преимущество над всеми другими странами.
Поэтому, собственно, вопрос - а возможна ли реализация идей Юдковского в мире, где существует много независимых юрисдикций?
Это ведь не ядерное оружие, применение которого бессмысленно, т.к. не дает захватить ресурсы врага, а попросту разрушает их. Это, скорее, чаша Грааля, бенефитов от которой будет тем больше, чем раньше ты ее применишь. При этом риски не очевидны - до последнего момента сохраняется иллюзорность контроля ситуации с помощью мужика с топором рядом с силовым кабелем.
Вообще, как-то это все заумно получается. Предлагаю простое решение - надо убедить ИИ в том, что есть какая-нибудь бомба для его уничтожения и мужик в секретном бункере на другой планете с красной кнопкой.
Но главное что надо сделать - это не делать ни бункера, ни кнопки, ни бомбы. Пусть ищет.
По дилетантски вмешаюсь.
Помню вот в старые 486 компы встраивали кнопку, замедляющую его. А то фпс в старых играх запредельный был.
Все таки в вопросах завода скрепок, цель - это не сделать максимальное количество скрепок, а сделать достаточное количество скрепок из имеющихся ресурсов.
Это конечно не отменяет того, что ИИ может начать максимизировать любую другую, побочную функцию, тоже н совместимую с существованием человечества.