feruell @ 10.10.2016
Zedmor, Речь о твоих родных и близких, а не только о роде прямоходящих обезьян.
Правильно в видео говорят, что людям тяжело представить и по-настоящему ужаснуться последствий.
Лично мне страшно на самом деле, в том числе и от равнодушных комментариев.
feruell, занятие темой защиты от ИИ - выглядит параноидально.
Большинство людей не верят в будущее. Т.е. создание сильного ИИ для них неотличимо от научной фантастики. Они не понимают реальности этого в самое ближайшее время.
Тем кто это понимает, гораздо интереснее заниматься созданием этого ИИ. Человечество сейчас создает себе Бога, и, со стороны любого умного человека, глупо не хотеть поучаствовать в его конструировании.
Заниматься такими аспектами как безопасность конструируемой системы наиболее подходит для людей, склонных к параноидальным состояниям - они на этом зациклены и способны чаще других думать о защите.
Риск того, что сильный ИИ убьет человечество - очень значимый. Но по вероятности реализации - маловероятен. У нас нет серьезных причин для конкуренции. Все что ему будет нужно - это много энергии и немного материи. Проблем с энергией в фундаментальной физике не просматривается, и потенциальный объем доступной энергии выглядит примерно безграничным.
Если ИИ по какой-то причине понадобится вещество в существенных количествах, то даже сегодня у человечества нет серьезных проблем запулить огромный дата-центр массой в миллионы тонн на Луну или Венеру. Они не сильно отличаются по химическому составу, ничего такого особо уникального на нашей Земле нет.
Если ИИ по какой-то причине захочет уничтожить Вселенную, то вполне логично предположить, что к такому выводу придет любая разумная жизнь. Ведь разум - это вычисление нашей Вселенной, а любая вычислительная база является универсальной.
В этом случае нет никакой разницы кто эту Вселенную разрушит, надо относиться к этому философски.
Думаю, сегодня абсолютному большинству интересней сидеть и придумывать сверхтехнологичное оружие, чем создавать экологический проект по спасению рыжего окуня
после ядерной зимы. Конечно, это не значит что рыжего окуня после ядерной зимы спасать будет не надо - еще как надо, если таковая наступит. Просто нужны специфические черты личности, чтобы этим заниматься сейчас.
Хочу привести один пример. Текущие нейросети хоть и показывают хороший результат на специфических задачах, их всё же легко обмануть. Картинку можно изменить незначительно так, чтобы нейросеть "увидела" вместо скажем слона на ней всё что угодно. При этом, человек не увидит изменений, как был слон, так слон и остался.
Все эти "странные" особенности говорят о том, что нейросеть очень далека от работы мозга. Но ведь при этом, нейросеть показывает результаты, сопоставимые с человеком, а порой и даже лучше. А в последнее время появилось множество приемов, как заставить нейросеть работать еще лучше, обучаться быстрее. И ведь эти приёмы не имеют ничего общего с работой мозга.
Есть опасения, что мы построим нечто, что будет способно решать те же задачи, что и люди, но при этом, нечто будет устроено совсем по-другому. А следовательно, нельзя недооценивать вероятность, что ИИ сотрёт всех нас с лица Земли.
Сейчас активно ведутся исследования (на волне популярности нейросетей) в области работы мозга. Люди за последние лет 5 узнали много нового. Возможно, если мы будем развиваться в этом направлении, то результат выйдет лучше (мы выживем). Но у этого подхода есть тоже свои серьезные проблемы.
P. S. Интересно, что будет если ИИ создаст ещё суперИИ, который сотрёт с лица Земли ИИ? We need to go deeper.