«У роботов никогда не будет сознания». Для чего нужна киберфилософия
Александр Мишура , преподаватель школы философии факультета гуманитарных наук НИУ ВШЭ:
Сколько людей занимается в России этикой роботов? Отвечу на вопрос вопросом. На каком уровне? На уровне публикаций в авторитетных философских журналах едва ли наберется с десяток человек. На уровне общественных обсуждений, дискуссий — полтора десятка человек. Не могу сказать, что эта тема популярна в России. Существует Семинар по взаимодействию технологий и общества, организованный Петром Левичем, директором департамента взаимодействия науки, технологий и общества МТИ. Там регулярно выступают специалисты из различных научных областей, и я там тоже выступал. Из постоянно функционирующих сообществ — только это.
Самый популярный вопрос в нашем сообществе — могут ли роботы заниматься творчеством. Понятно, что роботы уже научились производить и литературу, и живопись, и музыку. Роботы могут создавать такие произведения искусства, которые даже эксперт не отличит от созданного человеком. Но важным условием творчества является создание новых эстетических норм. Программа может следовать тем или иным нормам, которые в нее заложил разработчик, но не сможет сама создать новый жанр или направление. Уже созданы программы, которые пишут музыку «под классическую». Эта музыка звучит так, как будто ее писал человек в определенный исторический период. Робот может написать под Баха, под Бетховена, под Моцарта. И вы будете это слушать и думать: «Да, это что-то из того периода, что-то очень похожее». Не так давно ребята в «Яндексе» разработали программу, которая сочинила новый альбом группы «Гражданская оборона», и эту версию почти не отличить от оригинальных песен группы. То есть у «Гражданской обороны» есть свой стиль, по которому можно ее скопировать.
Тема этики искусственного интеллекта не стала пока в России предметом оживленных дискуссий. И дело не в том, что киберэтика не имеет отношения к нашим реалиям. Имеет, потому что мы пользуемся той же техникой, что американцы. И когда беспилотные машины станут повседневностью в США, а это вопрос нескольких лет, тогда они и в России появятся. Дело в том, что в России нет институционального поля, в котором эти вопросы могли бы обсуждаться. В американской среде есть гораздо больше возможностей вести продуктивную дискуссию — там больше специалистов, масса высококлассных журналов, лабораторий, научных групп. Есть специализированные форумы, на которых философы общаются. У нас эти площадки начали возникать относительно недавно, и еще не факт, что они приживутся. В России нет журналов, которые систематически публикуют философские статьи на тему этики роботов, нет какого-то устойчивого пространства аргументов и теорий. Поэтому, когда мы обсуждаем эти вопросы, мы по сути заимствуем исходные вопросы и аргументы из того набора, который был сформирован зарубежными специалистами.
Скорее всего, техника будет к нам приходить из-за рубежа с уже готовым программным обеспечением, значит, мы будем жить по тем принципам, которые были выработаны в среде западных философов, а не отечественных. Как мы не можем повлиять на программное обеспечение в айфонах, так мы, наверное, не будем принимать решений относительно программного обеспечения автопилотируемых машин будущего. Если только в России не начнут выпускать собственные беспилотные машины; тогда, вероятно, могут спросить и отечественных философов.
Многие темы этики роботов — это весьма частные вопросы прикладной этики, а у нас дискуссий по частным прикладным проблемам очень мало. Больше внимание привлекают, скорее, традиционные вопросы нормативной этики. Зачем обсуждать проблемы секс-роботов, если шанс получить какую-то реакцию на свою работу в виде ответных публикаций стремится к нулю?
Среди отечественных философов мне часто приходится сталкиваться с точкой зрения, что частные вопросы прикладной этики вторичны и могут быть легко решены, если занять определенную позицию по более общим этическим вопросам. Среди популярных «больших» вопросов — проблема свободы воли и вопрос о природе моральной ответственности. Много дебатов традиционно вызывает понятие справедливости. Споры ведутся по большим темам, частные вопросы реже становятся предметом обсуждения. Вопросы, связанные с искусственным интеллектом, обсуждаются, но для того, чтобы они обсуждались активно, требуется в 10 раз больше высококвалифицированных философов, которые учились на очень сильных философских факультетах под руководством специалистов мирового уровня, и, конечно, в 10 раз больше хороших рецензируемых журналов.
Мы сталкиваемся с тяжелым наследием советского прошлого, с отсутствием нормальной конкуренции в академической среде, с отсутствием культуры публичных диспутов. Культура дискуссии, культура аргументированного диалога между профессионалами не возникает мгновенно. Некоторые отечественные философы считают, что философия вообще не должна опираться на рациональную аргументацию, но может быть своего рода вещанием истины из глубин бытия. Достаточно просто выдвигать глобальные тезисы о первых принципах сущего, идея о том, что эти тезисы нуждаются в поддерживающих аргументах, до сих пор не является чем-то самоочевидным в среде нашей академической философии.
Если бы тема беспилотных машин и секс-роботов активно обсуждалась в среде российских философов, с моей точки зрения, региональная специфика этих дискуссий была бы связана с религиозной проблематикой. Подавляющее большинство (более 70%) американских философов — атеисты, около 15 — теисты. В России, по схожим опросам, около 27% занимают атеистическую позицию, более 40% — теистическую позицию. Существенную часть дискуссии, на мой взгляд, занимал бы вопрос о допустимости использования того или иного вида техники в контексте религиозных убеждений. Такого рода дискуссии есть и среди американских философов, они просто находятся как бы с краю дискуссионного поля. В России они могли бы иметь большее значение. Если секс-робот не нарушает ничьих прав и не наносит никакого физического ущерба, это еще не значит, что его использование оправданно с позиции той или иной религии.
Джон Саллинс III , PHD, профессор философского факультета университета Сонома (Калифорния, США), специализируется на философии технологии, философских вопросах, касающихся искусственного интеллекта, инженерной и компьютерной этики:
Мы, представители школы американского прагматизма, — практичные философы и решаем реальные проблемы. Наша задача — выносить философию из слоновой башни; это такая метафора, используемая, чтобы обозначать уход в мир творчества от проблем современности, замыкание в духовных исканиях, изоляцию от реальных проблем общества. Философы любят погружаться в вопросы о смысле жизни и гордятся тем, что их знания совершенно неприкладные. Это когда ты решаешь оставаться в своем кабинете и писать только на те темы, которые интересны тебе и твоим коллегам. Но мы считаем такой выбор — выбор оставить реальные проблемы человечества за дверью — аморальным выбором. Американская школа бросает вызов такому подходу. Мы выходим из башни и погружаемся в вопросы технологий, законодательные вопросы и острые социальные вопросы. Да, конечно, все эти экзистенциальные копании — это дико весело, но совершенно непрактично.
Вот нашумевший сериал Westworld — замечательный способ поднять вопросы сегодняшней философии и робототехники. Например, какие возникают проблемы, когда мы беремся создать совершенно новое думающее и чувствующее существо? На данный момент, в реальном мире, наши роботы могут думать только механическим способом и они могут только изображать эмоции и только изображать, что понимают ваши эмоции. Ваш цифровой друг может звучать так, как будто действительно обеспокоен вашим вопросом и постарается изо всех сил на него ответить, но мы все знаем, что за этим ничего нет. Westworld просит нас задуматься над тем, что могло бы произойти, если бы мы могли построить робота с более сильной эмоциональной привязанностью к этому миру. Он также изучает все проблемы, с которыми мы можем столкнуться, если создадим роботов, похожих на людей, но будем использовать их для удовлетворения своих самых темных желаний. Это шоу похоже на фильм 1994 года «Франкенштейн Мэри Шелли», где настоящий монстр — это инженер, а тот, кто вроде бы должен бы быть монстром, на самом деле жертва. Sci-Fi существует специально для того, чтобы изображать темные сценарии нашего будущего, чтобы нам не пришлось их проживать. Шоу следует досмотреть до удивительного конца первого сезона, думаю, все зрители задумаются над теми важными проблемами, которые нам предстоит разрешить до того, как начать создавать таких искусственных существ.
Марк Кокельберг , профессор философии Венского университета:
Наш подход к изучению этики роботов здесь, в Старом Свете, сильно отличается от американского подхода. Там они с большим оптимизмом смотрят на развивающиеся технологии и думают, как их этично внедрить. В Европе же к технологии относятся более скептично. Также американские философы с гораздо большей охотой готовы работать с такими большими компаниями, как Google или Facebook. Я тоже был бы не против поработать с такими компаниями, но большинство моих коллег в Вене видят свою роль в философии по-другому — считают, что нужно оставаться в академическом мире.
Еще у американских философов гораздо лучше получается рассказывать миру про свои находки, они умеют наладить коммуникацию с внешним миром, со СМИ. В Европе, на мой взгляд, нас больше беспокоит вопрос социализации робота. То есть как сделать так, чтобы робот сотрудничал с человеком, а не соперничал. Мы не хотим, чтобы роботы полностью заменили человека, мы хотим, чтобы они научились сотрудничать, и ищем ответ именно на этот вопрос. Мы, в Европе, не считаем, что нужно все автоматизировать. Американцы думают, что роботы смогут управлять компаниями, но я считаю, что управлять компанией можно только основываясь на своем опыте. Когда люди принимают комплексные решения, они используют эмоции, практическую мудрость, то есть свой жизненный опыт. Они должны взвесить все за и против, наложить их на свой опыт и импровизировать — именно так принимают решение начальники. Робот на такое не способен. У робота никогда не будет сознания, а значит, он не сможет переживать свою жизнь, а значит, не сможет накапливать опыт.