Искусственный интеллект, цифровизация

Этика в новом цифровом мире

Благодаря развитию технологии видеонаблюдения наши города стали значительно безопаснее. Во всём мире в последние десятилетия уровень преступности снизился беспрецедентно, и заметную роль в этом сыграли новейшие информационные системы.

Безопасность — новая общественная религия в наши дни. Мир становится всё прозрачнее. Но далеко не все граждане готовы доверить технологиям свою личную жизнь.

В Москве группа активистов пытается с помощью судов противодействовать внедряемой системе распознавания лиц. Как планирует МВД, технология будет применяться на всех камерах видеонаблюдения, установленных в столице: на улицах, в метро, в общественных местах. Уже сотня разыскиваемых преступников задержана благодаря работе этой программы.

Почему же некоторые горожане против? Система распознавания лиц многим знакома, к примеру, по фейсбуку: программа самостоятельно «узнаёт», кто изображён на фото, и предлагает вам отметить этого человека. Обычно она не ошибается, ведь в вашей ленте, как правило, опубликованы ваши же друзья, и алгоритм «знает их в лицо». Но попробуйте выставить фото с незнакомцами — ИИ по весьма отдалённому внешнему сходству предложит отметить неизвестных как ваших друзей, то есть конкретных людей из вашей ленты.

Именно в этом кроется опасность: бездушная машина может и в вас «узнать» другого человека. Например, разыскиваемого преступника! Никому не захочется доказывать, что он не верблюд, на таком шатком основании, как «мнение» искусственного интеллекта.

Этика искусственного интеллекта стала значимой повесткой в мировых технологических компаниях и крупных общественных организациях в последнее время. Принципы этичности, на которых настаивают компетентные специалисты, учёные и практики, для ИИ должны быть такими: прозрачность, справедливость, непричинение вреда, ответственность и неприкосновенность частной жизни. Посмотрев на список непредвзято, легко увидеть, что каждое из содержащихся в нём понятий неоднозначно и содержательно слишком различно в иных культурных традициях, чтобы говорить об исчерпанности предложенного перечня.


Это душераздирающее видео не рекомендуется смотреть эмоционально нестабильным людям. Также воздержитесь от просмотра, если у вас в семье недавно случилась беда.

В Южной Корее с помощью технологии виртуальной реальности удалось на короткое время вернуть матери умершую от лейкемии дочку. Кореянка Чжан Джи-Сон согласилась принять участие в эксперименте, чтобы спустя три года после трагедии снова увидеть свою Найон. Очки VR и специальные перчатки помогли женщине встретиться с девочкой, попрощаться и даже погладить её по голове. Но обнять малышку, увы, нельзя ни в реальном, ни в виртуальном мире.

Наблюдавшим за этой сценой близким Чжан, да и другим участникам эксперимента невозможно было удержаться от слёз. Сейчас в соцсетях идёт нескончаемый спор — этично ли было со стороны учёных использовать горе матери в целях продвижения своей технологии. Этично ли вообще — вмешиваться ИИ в эту сторону жизни людей? В их память об умерших, любовь и родственные чувства?

Насколько прозрачным, по-вашему, должен быть окружающий мир? Где бы ещё вы установили камеры видеонаблюдения? А хватило бы у вас мужества с помощью VR-технологии встретиться с теми, кто уже никогда не вернётся?

Иллюстрация: pixabay.com/users/geralt-9301/

Теги: безопасность, видеонаблюдение, виртуальная реальность, искусственный интеллект, социальные сети, технологии, этика