– Не могу. Не могу, – простонал он едва разборчиво – мешал палец во рту. – Делайте что хотите.
На глазах у Бейли он отвернулся к стене, прямая спина согнулась, и дрожащие руки закрыли лицо.
– Что ж, хорошо, я согласен продолжать разговор по видео, – сказал Бейли.
– Извините меня. Сейчас вернусь, – не поворачиваясь, произнес Либич.
Бейли, освежившись в перерыве, смотрел на свое свежеумытое лицо в зеркале ванной. Кажется, он начинает чувствовать Солярию и соляриан? Пока трудно сказать. Он вздохнул, нажал кнопку – появился робот. Бейли, не оборачиваясь, спросил:
– Есть на ферме другой видеофон, кроме того, которым я пользуюсь?
– Еще три пульта, господин.
– Тогда скажи Клориссе Канторо – скажи своей госпоже, что я пока буду занимать этот и прошу меня не беспокоить.
– Да, господин.
Бейли вернулся туда, где в кадре так и оставался пустой угол комнаты Либича. Роботехник еще не вернулся, и Бейли настроился ждать, но ждал недолго. Вошел Либич, и его комната снова поехала вслед за ним. Очевидно, фокус тут же переместился с комнаты на человека. Бейли вспомнил, как сложно устроен видеофон, и не мог не подивиться совершенству аппарата.
Либич, кажется, вполне овладел собой. Он зачесал волосы назад и переоделся. Теперь на нем был свободный костюм из блестящего, отражающего свет материала. Он опустился на легкий стульчик, откинув его от стены, и спросил ровным голосом:
– Итак, что вы собирались мне сказать относительно Первого Закона?
– Нас никто не подслушает?
– Нет, я принял меры.
Бейли кивнул.
– С вашего разрешения я процитирую Первый Закон.
– Едва ли в этом есть необходимость.
– Все же позвольте: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред».
– И что же?
– Когда я высадился на Солярии, меня доставили в предназначенное мне имение на машине. Эта машина была закрыта со всех сторон, чтобы защитить меня от воздушного пространства. Как землянин, я…
– Знаю, знаю, – нетерпеливо прервал Либич. – Какое это имеет отношение к делу?
– Роботы, которые вели машину, не знали того, что известно вам. Я попросил открыть верх, и они тотчас повиновались. Второй Закон. Они обязаны подчиняться приказам. Мне, конечно, стало нехорошо, и я чуть не потерял сознания, пока машину опять не закрыли. Разве эти роботы не причинили мне вреда?
– По вашему же приказу, – отрезал Либич.
– Цитирую Второй Закон: «Робот должен повиноваться командам человека, кроме тех, которые противоречат Первому Закону». Как видите, они не должны были подчиняться мне.
– Чепуха. Ведь роботы не знали…
Бейли подался вперед.
– Ага! Вот оно! Прочтем же Первый Закон так, как его следует читать: «Робот не должен делать ничего, что, насколько ему известно, причинило бы вред человеку, или своим бездействием намеренно допустить, чтобы человеку был причинен вред».
– Само собой разумеется.
– Не думаю, чтобы это понимал средний человек – иначе средний человек сознавал бы, что робот способен на убийство.
– Безумие! Бред! – с лица Либича сползла всякая краска.
Бейли внимательно рассматривал свои пальцы. – Но ведь робот может выполнить невинное задание – ничего такого, что причинило бы вред человеку?
– Если ему прикажут.
– Да, конечно. Если ему прикажут, И второй робот тоже может выполнить невинное задание – ничего такого, что причинило бы вред человеку? Если ему прикажут?
– Да.
– а что, если эти два невинных задания, сами по себе совершенно безобидные, вместе взятые приведут к убийству?
– Что? – свирепо нахмурился Либич.
– Мне нужно ваше мнение как эксперта. Приведу вам условный пример. Предположим, человек говорит роботу: «Влей немного этой жидкости в стакан с молоком, который ты найдешь там-то и там-то. Эта жидкость безвредна. Я хочу только узнать, в какую реакцию она вступает с молоком, Когда я это узнаю, молоко будет вылито. Выполнив задание, забудь о нем».
Либич, все еще сердитый, молчал.
– Если бы я велел роботу влить таинственную жидкость в молоко, а затем подать молоко человеку, Первый Закон заставил бы его спросить: «Что это за жидкость? Не повредит ли она человеку? Даже если бы робота заверили, что жидкость безвредна, Первый Закон все же заставил бы его усомниться в том, и он отказался бы подать молоко. Но ему сказали, что молоко выльют, Первый Закон не включается. Разве робот не выполнил бы подобный приказ?
Либич молча злобно смотрел на Бейли.
– Второй же робот, который наливал молоко, – продолжал тот, – не знает, что в него что-то добавили. В.полном неведении он подает молоко человеку, и человек умирает.
– Нет! – выкрикнул Либич.
– Почему же нет? Оба задания сами по себе безобидны. Только вместе взятые они ведут к убийству. Вы же не станете отрицать, что нечто подобное возможно?
– Тогда убийцей будет человек, который отдал эти приказы! – крикнул Либич.
– С философской точки зрения – да. Но убийцами-исполнителями, орудиями убийства, будут роботы.
– Ни один человек не станет отдавать таких приказов.
– Станет. Уже отдал. Именно таким образом должно было совершиться покушение на убийство Грюера. Вы ведь слышали о нем?
– На Солярии слышишь все и вся.
– Значит, знаете, что Грюер был отравлен за обедом на глазах у меня и моего партнера, аврорианца господина Оливо. Вы можете предложить другой способ подать ему яд? Никого из людей в имении не было – вам как солярианин, нет надобности объяснять почему,
– Я не детектив и не выдвигаю гипотез.