Цитата (AlX @ 10.10.2015)
По моему все что мы можем знать наверняка на данный момент, это то что мы нифига не знаем о том какой может получится этот ИИ и получится ли он вообще, можно только гадать
Ну, это банальная констатация обывательской точки зрения. Действительно речь идет пока о некоем сферическом коне в вакууме. Но мне, очевидно, что нет никаких оснований полагать, что невозможно создать мыслящий организм аналогичный человеку на другом носителе. Вопрос только в сроках и сценарии развития событий.
Цитата (AlX @ 10.10.2015)
Почему-то ты приписываешь будущему ИИ вполне человеческие качества, - стремление доминировать, выживать и волноваться о своем существовании, устранять угрозы? Это ли не антропоморфизм? ) Почему он должен ими обладать обязательно? Почему искусственному сверх интеллекту не может быть все равно сколько он еще просуществует в принципе? Или вполне возможно ему получится заложить что-то типа законов робототехники Азимова, стремление помогать людям и т.д. А возможно это просто будет очень умная самообучающаяся программа, которая имеет доступ ко всем знаниям человечества и может делать быстрые открытия в любой сфере, но он не будет осознавать себя личностью по типу человека, иметь эмоции или какие либо устремления помимо поставленных ему задач. Любое открытие можно разложить на какие-то последовательные логические шаги, постепенно переведшие к нему. Для человека это может быть очень трудно и долго введу ограниченности знаний, времени, способностей, эмоций и других отвлекающих факторов. А для машины может быть очень быстро и легко если она выйдет на соответствующий уровень.
Мне кажется ты не понимаешь суть сильного искусственного интеллекта. Программа, о которой ты говоришь не способна выйти за пределы своего алгоритма и не способна к творчеству. Способность мыслить, самоосознавать и чувствовать для сильного ИИ является, судя по всему не антропоморфизацией, а его неотьемлемой частью. А стремление к доминированию, к примеру, может быть следствием естественного желания выжить (базовая цель любого организма) - лучший способ защиты нападение. Гипотеза гуманистов типа Бострома и Юдковски сводится к тому, что ИИ не сможет поменять систему мотиваций, которую мы заложим в него на старте. Юдковски даже пытался формулировать эту "конституцию будущего" в виде некоей когеррентой экстраполированной воли (аналог законов Азимова ) . И Бостром настаивает также на ортгональности системы мотивации и уровня развития интеллекта. Мне это кажется, мягко говоря очень спорным. Так же как и существование решения проблемы за счет каких то сверхусилий.
Ну, это банальная констатация обывательской точки зрения. Действительно речь идет пока о некоем сферическом коне в вакууме. Но мне, очевидно, что нет никаких оснований полагать, что невозможно создать мыслящий организм аналогичный человеку на другом носителе. Вопрос только в сроках и сценарии развития событий.
Мне кажется ты не понимаешь суть сильного искусственного интеллекта. Программа, о которой ты говоришь не способна выйти за пределы своего алгоритма и не способна к творчеству. Способность мыслить, самоосознавать и чувствовать для сильного ИИ является, судя по всему не антропоморфизацией, а его неотьемлемой частью. А стремление к доминированию, к примеру, может быть следствием естественного желания выжить (базовая цель любого организма) - лучший способ защиты нападение. Гипотеза гуманистов типа Бострома и Юдковски сводится к тому, что ИИ не сможет поменять систему мотиваций, которую мы заложим в него на старте. Юдковски даже пытался формулировать эту "конституцию будущего" в виде некоей когеррентой экстраполированной воли (аналог законов Азимова ) . И Бостром настаивает также на ортгональности системы мотивации и уровня развития интеллекта. Мне это кажется, мягко говоря очень спорным. Так же как и существование решения проблемы за счет каких то сверхусилий.