ИИ в обществе
Искусственный интеллект (ИИ) - это ключевая технология, которую следует ожидать применения во всех сферах общества. Сегодня во всем мире на разработку систем искусственного интеллекта выделяется очень много денег. Это показывает, насколько высок экономический потенциал ИИ. ИИ может улучшить качество жизни многих людей и помочь в решении глобальных проблем, таких как изменение климата или кризисные ситуации в области здравоохранения. Однако по мере увеличения областей применения ИИ растет и озабоченность, например, важностью таких человеческих ценностей, как справедливость, свобода, защита данных, безопасность и ответственность. Несомненно, что эта технология уже глубоко изменила нашу повседневную жизнь и продолжит менять ее.

Мораль для машин
Алгоритмы меняют личную жизнь многих людей с помощью приложений для знакомств, управляют «умным домом», принимают решения о покупках и влияют на общественные дискуссии. ИИ будет заботиться о детях, ухаживать за больными, предоставлять работу и выдавать кредиты, а также принимать решения о жизни и смерти при помощи автономного оружия. Интеллектуальные машины выработают свои собственные модели поведения, которые не могут быть ни четко программируемыми, ни объяснены традиционной наукой о поведении. Но мыслимо ли вообще этическое поведение без сознания и совести? Как же разработать ИИ, который будет служить людям, а не вредить им? Многие эксперты по ИИ убеждены, что ответить на эти вопросы может только новая область исследований: «Machine Behaviour» – исследование поведения машин. В любом случае, ясно одно: мы должны решить принципиальные вопросы этики и морали сегодня, чтобы в будущем машины могли руководствоваться этими принципами.

Может ли ИИ стать виновным?
Кто оплачивает ущерб, когда самостоятельно обучающиеся и действующие машины совершают ошибки? Программисты, производители, пользователи? Нормы права во всем мире созданы для людей, даже если некоторые из них относятся к вещам. Однако в этом случае ответственность несут не продукты или машины, а люди, которые их производят или используют. Но все это относится к машинам, которые «готовы» на момент покупки. Обучающийся ИИ, с другой стороны, постоянно меняется. Если ИИ принимает решения – и только тогда это ИИ, – разве он не должен нести ответственность за свои действия как субъект права?

Моральная машина
Ияд Рахван проводит исследования в Институте развития человека им. Макса Планка в Берлине и в Медиа-лаборатории МТИ в Бостоне. Его проект «Моральная машина» является крупнейшим на сегодняшний день исследованием в области машинной этики. Интерактивный опрос исследует этические причины, по которым люди в разных регионах мира принимают решения, и можно ли на основе этого разработать правила поведения для ИИ. Как должен вести себя автомобиль с автономным управлением, если серьезную аварию невозможно предотвратить? ИИ должен решить, куда направить машину – и, таким образом, кто выживет. Оказывается: все респонденты хотят спасти как можно больше человеческих жизней, в первую очередь детей и тех, кто соблюдает правила дорожного движения. Но при ближайшем рассмотрении становится ясно, что не существует общемировых ценностей: отдавать предпочтение мужчинам или женщинам, пожилым или молодым людям – или просто позволить случайности принять решение? Это выглядит совершенно по-разному в разных культурных кругах.
Отказывают тормоза. Люди умрут – но кто? Как ИИ должен принимать решение? В опросе приняли участие более четырех миллионов человек из более чем 200 стран мира.

© moralmachine.mit.edu, скриншот

Запрограммирован на справедливость
Кто получит кредит? Кто будет приглашен на собеседование? Кто досрочно выйдет из тюрьмы? В будущем компьютеры будут все чаще принимать (совместные) решения вместо людей. К отдельным группам людей нельзя относиться лучше или хуже, чем к другим – даже непреднамеренно. Это постоянно происходит с автоматизированными системами, которые уже используются. Почему? И как ИИ может научиться вести себя справедливо? Сначала необходимо убедиться, что ИИ не дискриминирует на основе данных, которыми его «кормят». Более того, степень, в которой компьютеры могут установить значимую связь между причиной и следствием, имеет большое значение. Простая импликация часто сбивает с пути. Эта так называемая причинность машинного обучения является очень актуальной областью исследований: необходимо кропотливо анализировать взаимосвязи и программировать в алгоритмы. Но, наконец, остается вопрос: «Что такое справедливое решение?». Потому что не существует определения справедливости, которое было бы одинаково справедливо для всех культур.

Алгоритмы, используемые, например, в процедурах отбора персонала, не должны дискриминировать какие-либо группы людей – например, женщин или мужчин.

© Alamy

Искусственное искусство
Работники искусства по-разному решают проблему взаимоотношений между цифровым и физическим миром. ИИ уже давно играет важную роль в научной фантастике. Но может ли ИИ сам создавать искусство? Искусство – это креативный процесс, в котором важны восприятие, воображение и интуиция. Может ли ИИ быть креативным, если он не понимает юмора, не знает печали и радости и не имеет сознания?
С помощью интеллектуальных алгоритмов сегодня создаются картины, пишутся стихи и сочиняются музыкальные произведения. Аукционный дом «Christie’s» впервые в 2018 году выставит на торги картину, созданную ИИ. Мюнхенский художник Марио Клингеманн показывает фантастические лица в видеоинсталляциях, которые меняются в режиме реального времени: Обучающийся ИИ интегрирует черты лица посетителей в художественное произведение и таким образом адаптируется к различным культурам. А используя «Deepfake», ИИ заставляет искусственно созданную Тейлор Свифт петь искусственно созданную песню. Для этого алгоритм анализирует все песни певицы и синтезирует новую композицию – точно в стиле Тейлор Свифт.

«ИИ не является креативным – ИИ может инициировать креативность».
Пианистка и преподаватель фортепиано и современной музыки в Бременском университете искусств Клаудия Джанет Биркхольц
Made on
Tilda