Айзек Азимов. Я, робот

Я, робот
Автор: 

Роман в новеллах «Я, робот» относится к одной из самых важных работ в истории фантастики. Сформулированные Азимовым три закона роботехники легли в основу науки об Искусственном интеллекте.
Что случится, если робот начнет задавать вопросы своему создателю? Какие будут последствия программирования чувства юмора? Или возможности лгать? Где мы тогда сможем провести истинную границу между человеком и машиной?
В «Я, робот» Азимов устанавливает свои Три Закона, придуманные для защиты людей от их собственных созданий — и сам же выходит за рамки этих законов. Вместе с гениальным робопсихологом доктором Сьюзен Кэлвин мы увидим, как воплощается мечта об искусственном интеллекте и как меняется наше отношение к роботам.

Я вдруг осознал, какие глупые создания эти люди. Не существовало законов, регулирующих человеческие поступки. Поэтому людям пришлось самим придумывать нужные правила, но даже после этого они не могли заставить себя им следовать.

11
1
12

Помните тот ответ, который дала сама Машина на ваш запрос? Он звучал так: «Ответ на вопрос недопустим». Правильно? Ведь Машина не сказала, что объяснения нет или что она не может его найти. Она просто не собиралась ничего объяснять.

Пояснение к цитате: 

"Разрешимое противоречие"

12
2
14

— А разве психология роботов так отличается от человеческой?
— Огромная разница. — Она позволила себе холодно улыбнуться, — Прежде всего, роботы глубоко порядочны.

Пояснение к цитате: 

«Улики»

8
1
9

Эти книги – такие же, как и остальные. Они меня просто не интересуют. В ваших учебниках ничего нет. Ваша наука — это просто масса собранных фактов, кое-как скрепленных подобием Теории. Все это так невероятно просто, что вряд ли достойно внимания. Меня интересует ваша беллетристика, переплетение и взаимодействие человеческих побуждений и чувств…

Пояснение к цитате: 

"Лжец!"

6
2
8

— Теперь слушай. Начнем с трех основных законов роботехники, — трёх правил, которые прочно закреплены в позитронном мозгу. <...> Первое. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
— Правильно.
— Второе, — продолжал Пауэлл. — Робот должен повиноваться командам человека, если эти команды не противоречат Первому Закону.
— Верно.
— И третье. Робот должен заботиться о своей безопасности, поскольку это не противоречит Первому и Второму Законам.

2
0
2