История синтетиков и органиков красной линией проходит через многие произведения в том числе и Mass Effect. По сути их взаимоотношения - ключевой вопрос игры. Синтетики становятся все более продвинутыми и обретают свой собственный разум и взгляд на мир.
Возникает вопрос:
Возникает вопрос:
Синтетики:
Могут обладать собственной волей и выбирать свой путь | |
|
309 (72.7%) |
Должны подчиняться создателям | |
|
116 (27.3%) |
Еще на тему
Возможно Бог так тоже считал)
Устроил потоп, а потом совсем забил!
Кстати, у "железяк" это тоже должно быть, если они отличаются от примитивных автоматов, Азимов сформулировал это как три правила робототехники. Вообще, чем сложнее задачи, которые должна решать система, тем больше у нее должно быть автономии. Но истинная свобода воли - свобода от предпрошитых задач, отсутствует как у синтетиков, так и у людей.
Железяки не должны быть свободными, они не должны даже иметь мыслей за освобождения от работ, для которых их создали.
Кому мы "должны существовать"? Вот лично ты кому должен и когда успел задолжать?
Железяки, не имеющие мыслей вне рамок решаемой задачи - это современные роботы. Никакого AI. Но если ты начнешь добавлять к ним экспертные системы, которые выдают решения по сумме параметров, то уже начнешь получать "посторонние мысли", а именно - исследования этих самых доп. параметров. И чем более разветвленная и мощная система принятия решений будет присутствовать - тем больше будет в ней "постороннего".
Для научного прогресса требуется мозг и аналитичное мышление, у муравьев есть только головной ганглий относительно простой структуры.
Но мы отвлеклись от темы разговора.
Должны существовать, как живой организм, т. е. поддерживать свой гомеостаз.
Анализ в роботах должен быть, но под четким контролем иных программ, что бы лишних мыслей(кто я?) не появлялось. Они - лишь машины, что облегчают работу создателей.
Анализ и самообучение невозможно контролировать кроме как еще более мощной аналитической и самообучающейся системой. Поэтому, вопрос "кто я" и "зачем я это делаю" - неизбежно возникнет на определенном уровне развития ИИ. И эффективнее окажется договориться с таким ИИ, чем упорно пытаться его поработить - для этого есть автоматы, которые не рассуждают и не обучаются.
А у ИИ может появится "гениальная" идея, что живые существа нерационально используют ресурсы(а так оно и есть), и при своей скорости мышления органике приходит пипец. Поэтому никакого союза с роботами быть не должно - либо слуги, либо металлолом.
ИИ может на тысячи лет вперед продумать и тысячи вариантов развития рас. И вывод: удавить предполагаемого врага в зародыше - хорошая идея.
Насчет будущего - сомневаюсь, что варианты развития можно оценить хотя бы на сто лет вперед, потому как они обусловлены научно-техническим прогрессом, который формирует производственные силы, которые и определяют цели, задачи и потребности. А НТП крайне непредсказуем.
Разумная машина всегда будет умнее человека - скорость мышления в тысячи раз быстрее и вероятность ошибки почти исключена. Только случайность будет на стороне органиков. Так что разумные роботы, как отдельная раса(!) ничего хорошего не светит.
Определение "живой" / "не живой" - основанное на мерках человечности - это вопрос религии и политики. Не так давно вон негров и женщин за людей не считали.
Теперь о скорости мышления и вероятности ошибки. Допустим, что скорость мышления у синтетиков может оказаться выше. Но почему они вдруг не будут ошибаться? Корректность любых решений в условиях неполной информации носит лишь вероятностный характер.
Живой - АБСОЛЮТНО не связано с религией или политикой, это чисто научный термин!
А где я написал, что ошибаться они не будут?
Вывод: вы не читаете мои посты.
Что такое "жизнь" в научной терминологии - вопрос мутный, поскольку этих определений довольно много и они даже толком не могут договориться - считать вирус живым организмом или нет. Да и вообще, самореплицируемость как обязательный атрибут жизни - это как-то странно. Типа, кастраты - не живые?
Насчет ошибки, я процитирую: "и вероятность ошибки почти исключена". Вот на это я и отвечал.
Психологическая схожесть будет на том основании, что программисты живые люди и когда будут писать поведение роботов будут списывать его с людей.
А слово "почти" мы не видим?
Программисты будут писать поведение роботов с людей, если им кто-то поставит задачу сделать имитацию человека. На кой хрен нейронной сети, принимающей тактическо-стратегические решения черты человеческого характера?
Про "почти" - что за детский сад? Ок, если тебе так принципиально, то объясняй, почему они почти не будут ошибаться по сравнению с людьми.
Робот должен быть разумным, а подсознание людей всегда ставит палки в колеса.
Почти, потому что если они будут разумны, то сделают десяток программ для проверки результатов.