"Айзек Азимов. "...яко помниши его"" - читать интересную книгу автора - Верно, но и здесь есть свои ограничения. Компьютеры, которыми пользуется
человечество, становятся все более узкоспециализированными, чтобы не допустить возникновения интеллекта, слишком похожего на человеческий. Сто лет назад мы уже вступили на путь создания искусственного интеллекта с самыми неограниченными возможностями, сконструировав огромные компьютеры, которые назвали Машинами. Но Машины сами наложили ограничения на свою деятельность. Успешно разрешив экологические проблемы, угрожавшие существованию человеческого общества, они самоликвидировались. Машины пришли к выводу, что в дальнейшем станут для людей чем-то вроде подпорок или костылей, а поскольку сочли это вредным для человека, то вынесли себе приговор на основании Первого Закона. - Вы полагаете, они ошиблись? - По-моему, да. Своим поступком они усилили у людей комплекс Франкенштейна - инстинктивную боязнь, что искусственно созданный интеллект восстанет против своего создателя. Люди боятся, что роботы могут занять их место. - А вы сами не боитесь? - Я лучше осведомлен. Пока действуют Три Закона Роботехники, этого не случится. Роботы могут стать нашими партнерами, внести свой вклад в великую борьбу за разгадку законов природы и мудрое управление ею. При таком сотрудничестве человечество могло бы достигнуть гораздо большего, чем в одиночку, причем роботы всегда стояли бы на страже интересов человека. - Но если на протяжении двух веков Три Закона успешно удерживали роботов в границах повиновения, в чем же источник недоверия людей? - Ну... - Харриман яростно поскреб затылок, взъерошив седые волосы. - В сложности, за которые, конечно же, сразу ухватились противники роботов. - Это касается Трех Законов? - Да, в особенности Второго Закона. Видишь ли, с Третьим проблем нет, это закон абсолютный. Робот всегда должен жертвовать собой ради людей, ради любого человека. - Естественно, - согласился Джордж Десять. - Первый Закон, похоже, не столь универсален, потому что нетрудно придумать ситуацию, в которой робот обязан предпринять взаимоисключающие действия А или Б, и каждое из них в результате причинит человеку вред. Поэтому робот должен быстро выбрать меньшее из двух зол. Однако сконструировать позитронные мозговые связи таким образом, чтобы робот мог сделать нужный выбор, крайне нелегко. Если действие А нанесет вред молодому талантливому художнику, а действие Б - пяти престарелым людям, не имеющим особой ценности, - что предпочесть? - Действие А, - без колебаний ответил Джордж Десять. - Вред, причиненный одному, меньше, чем вред, причиненный пяти. - Да, роботов всегда конструировали с таким расчетом, чтобы они принимали подобные решения. Считалось непрактичным ожидать от робота суждения о таких тонких материях, как талант, ум, польза для общества. Все это настолько замедлило бы решение, что робот практически был бы парализован. Поэтому в ход идут числа. К счастью, такие критические ситуации достаточно редки... И вот тут мы подходим ко Второму Закону. - Закону повиновения. - Именно. Необходимость подчинения приказам реализуется постоянно. Робот |
|
|