Разработки искусственного интеллекта делятся на два типа. Первый — разработка высокого ИИ, попытка воспроизвести интеллект человека. Активнее всего эта идея развивалась в 1970-х годах, когда человечество после полетов в космос чувствовало, что оно все может. Но в то время действительно серьезных прорывов не было. Вычислительные мощности, доступные на тот момент, никаких существенных результатов дать не могли.

Сейчас эти разработки перекочевали в нейрофизиологию — к ученым, которые в первую очередь занимаются человеческим мозгом. Скорее всего, прорыв в области высокого интеллекта, который по функциям будет схож с человеческим, случится именно в биологии и физиологии. А потом уже инженеры ИИ присоединятся к  биологам, чтобы вместе совершить настоящую революцию. Это означает, что в академической и инженерной среде сегодня на самом деле нет никаких серьезных разговоров о высоком искусственном интеллекте.

Но есть разработки второго типа — прикладной искусственный интеллект. Прикладной ИИ не пытается быть подобным человеческому, но умеет решать когнитивные задачи, то есть задачи, требующие наличия навыков мышления, анализа данных и формирования суждения. В этой области уже сегодня есть много достижений.

Технология обучения машины в этом случае заключается в том, что она изучает много-много данных, которые в целом говорят об одном и том же. Но это не просто алгоритмизация решения: ИИ умеет, анализируя выборки данных, делать разные суждения, которые находятся в общей зависимости друг с другом. Нейронная сетка через эти связи и общие зависимости учится видеть мир и делать новые суждения. 

Люди согласны терпеть ошибки других людей, но не согласны терпеть ошибки машин

Прикладной ИИ может работать, когда у него накоплено достаточное количество опыта для анализа и вынесения суждений. Но если создается новый прецедент, ИИ с ним не справится, вот почему вопрос о внедрении ИИ в судебную систему остается открытым: во-первых, у него будут разные возможности в прецедентном и континентальном праве; во-вторых, важен человеческий фактор. 

Экономист Рональд Коулз в книге «Фирма, рынок и право» проанализировал, чем руководствуются судьи, вынося решения. Например, человек установил у себя дома какую-то штуковину с трубой, из которой выходит ядовитый дым и портит воздух людям вокруг. Вроде общественный вред, а вроде частная собственность. Коулз приходит к тому, что стратегия принятия решений судей чаще всего коррелирует с объективными экономическими показателями, вроде того что ядовитый дым приводит к ухудшению здоровья массы людей, а это затраты на лечение. Но иногда бывает, что включаются другие стратегии принятия решений, например, обращение к традициям или историческому контексту: если что-то было принято на этой территории испокон веков, то можно и на экономические причины закрыть глаза.

Машине же тяжело анализировать социальную составляющую общества. То есть она способна прекрасно использовать данные экономических показателей, потому что они объективны, но не может учесть какие-то уникальные факторы. Если бы задачей суда была только минимизация или оценка экономических последствий, то машина могла бы заменить судью. Ей даже по плечу большинство гражданских исков, когда надо просто оценить нанесенный вред при затоплении квартиры, разбитой машине и так далее. И таким образом действительно можно было бы разгрузить судебную систему.

Если мы не можем научить человека, как стать идеальным судьей, почему мы думаем, что сможем обучить этому искусственный интеллект?
 

И все равно: судьи имеют определенную свободу при принятии решений, которая не подчиняется алгоритмам. Экономически должно быть так, но судья решил по-другому, потому что есть какой-то неожиданный, но веский фактор. Машина может упустить такие данные, а потому люди просто не согласятся передавать ей свои функции и перекладывать на нее ответственность. Даже если процент удачных решений у машины больше, чем у человека, но при этом не является абсолютным, человек все равно предпочтет человека.

Дело в том, что люди согласны терпеть ошибки других людей, но не согласны терпеть ошибки машин. Потому что цивилизация развивалась в социуме, людям важно чувствовать себя частью группы, даже если для этого придется простить другому человеку его ошибку. А так как необходимости включать в социальную группу машину у человека нет, нет причин и делать для нее какие-либо поблажки. Скорее всего, такая психология изменится уже в следующем поколении: люди, рожденные в XXI веке, живут в системе «человек — машина» и привыкают к ошибкам машин. 

Сможет ли когда-нибудь прикладной или высокий ИИ решать задачи на 100 процентов успешно, мы не знаем. Более того, только когда появится высокий искусственный интеллект, только тогда мы узнаем, для чего он годится. В кибернетике есть интересное утверждение: как только человек создаст киберкошку — компьютерную систему, полностью идентичную живой кошке, — он создаст просто кошку. То есть, если мы изобретем высокий искусственный интеллект, нам придется для его обучения использовать все те же знания, которые мы используем в воспитании человека. Так как педагогика как наука по сей день не состоялась — мы не знаем, как однозначно правильно воспитывать людей, — мы однажды столкнемся с тем, что не будем знать, как воспитать ИИ. И тогда встанет вопрос: а что же мы не можем научить человека, как стать идеальным судьей, и почему тогда думаем, что сможем обучить этому искусственный интеллект?