feruell, я почитал/посмотрел всякого разного материала на тему и есть три вопроса/замечания:
1. Основные спикеры по теме, которых я вижу — это Юдковский, Бостром, Урбан, Харрис..
Они конечно важны для того, чтобы поднять вопрос, но при всём уважении они не сильно компетенты в обеих областях: ни в истуственном, ни в "естественном" интеллекте. Под компетентностью я имею в виду практическую работу в данной области (master degree Бострома не катит).
То есть мнение условных Google Deepmind было бы куда убедительнее.
Или оно всё есть и я просто не видел (сильно не искал)? Скинь ссылок, если есть плиз.
2. А ты читал/смотрел какие-то оппозиционные мнения или дебаты с участием скептиков?
Просто я (как подозреваю и ты) сильно не компетентен в AI и когда Бостром говорит про прогнозы создания или сложность всей задачи, я могу лишь поверить ему, т.к. проверить за короткое время это практически невозможно. И, как показывает практика, в таких штуках доверяться интуиции и дедуктивному мышлению может быть сильно неправильно.
Вот всё что я видел из такого:
Тут один участник (Урбан) сильно не компетентен, а второй не сказать, что сильно готов конструктивно опровергать, а лишь выражает разные сомнения. Поэтому спора не получилось толком. Но интересный взгляд с другой стороны в любом случае
Может ещё чего есть, посерьёзнее уровнем?
3. Ну и момент, который лично мне кажется странным:
Вот допустим мы согласились, что есть опасность. Что дальше? Ответ: создать проект по "контролю" за AI и
feruell @ 10.10.2016
Это будет определять человек, который будет возглавлять проект очевидно
не устраивает совсем.
Почему кандидат на эту роль не скажет что делать уже сейчас? Это секрет?
Просто ощущение, что ответа таки нет. Юдковский и ко потратили много ютюбочасов и пдфостраниц на рассказы как страшно и опасно это может быть, но я нигде не видел какого-то конкретного плана кроме "надо выделить миллиард денег, дать нам, мы сядем и подумаем" (утрирую).
Или опять же есть и я всё пропустил?
При этом чисто интуитивно (плохой подход, согласен) не ясно, как будут сочетаться наложенные нами "ограничения" с фактом того, что это
суперинтеллект. То есть во-первых, он самообучаемый и самоизменяемый (как и любой интеллект), а во-вторых, супер, то есть ещё круче чем мы.
Кто первый создаст, тот и будет "править бал" некоторое время, пока ИИ не создаст другая страна (если дадут успеть).
Кто-то задумывался о безопасности, когда создавали атомное оружие?
Так и с ИИ, кто будет задумываться о рисках, когда на кону создание топ левел оружия?