Способность понимать другого

Способность понимать другого и говорить с ним на одном языке теперь ценится ещё более высоко, чем прежде. Применение языка алгоритмов сегодня взволновало воображение интернет—пользователей, которые следят за новостями в сфере систем машинного обучения (далее – ИИ). Газета The New York Times сообщила: Facebook пришлось извиняться за то, что её ИИ присвоил пометку «приматы» видеоролику с темнокожими мужчинами.

Отмечается, что ролик появился в аккаунте британской газеты Daily Mail в социальной сети Facebook. На нём произошла стычка между темнокожими, белыми жителями и полицейскими. Рядом с видео появилось автоматическое уведомление, которое спрашивало пользователей, желают ли они «продолжить смотреть видео о приматах». При этом видео не имело отношения к обезьянам или приматам.

Читая эту новость, вспомнила другую историю, которая совсем недавно вызвала настоящее интеллектуальное и эмоциональное потрясение не только у меня. Она из области медицинского ИИ. Её суть в том, что ни один даже самый опытный рентгенолог на Земле не в состоянии определить по снимкам расовую принадлежность пациента. А ИИ делает это запросто. Специалисты по решению задач медицинской визуализации усмотрели в этом опасность и пришли к таким выводам:

1) Распознавание медицинских изображений при принятии диагностических и лечебных решений — это одна из самых массовых и перспективных областей прикладного использования ИИ.

2) Попытки использования ИИ для принятия решений в широком спектре применений, основанных на суждениях о людях (например, социальные, кадровые, финансовые, полицейские системы оценки людей), столкнулись с серьёзной проблемой расовой предвзятости ИИ, обусловленной данными, на которых эти ИИ учили.

3) В контексте пунктов 1 и 2, новое авторитетное совместное исследование 15-ти медицинских центров США, Канады, Австралии и Тайваня вызывает шок.

Его выводы таковы:

• ИИ легко учится распознавать расовую принадлежность пациентов практически по любым медицинским изображениям, и это прямой путь для воспроизведения или усугубления расовой дискриминации в медицинской практике;

• эксперты — люди не понимают, как ИИ это делают, ибо просто физически не видят на изображениях каких-либо маркеров национальной принадлежности; из чего следует, что человеческий надзор за такими ИИ для распознавания и смягчения данной проблемы имеет (мягко говоря) ограниченное применение, а по сути — человеческий надзор здесь невозможен;

• это создает огромный риск для развёртываний практически всех моделей ИИ в области медицинской визуализации: если ИИ «тайно» полагался на свою способность определять расовую принадлежность для принятия медицинских решений, но при этом некорректно (предвзято) провёл классификацию (например, чернокожих пациентов), клинические рентгенологи (которые, как правило, не имеют доступа к расовой демографической информации) не смогут это увидеть и исправить.

Результаты данного исследования в общем контексте прикладного использования ИИ для принятия решений звучат почти как приговор: любой ИИ, обладающий недоступным для людей знанием, потенциально чрезвычайно опасен и потому не должен использоваться при принятии ответственных решений. Это ещё раз о необходимости правового регулирования применения ИИ.

Возвращаясь к истории из NYT.

Пресс-секретарь компании Facebook Дэни Левер принёс извинения за «недопустимую ошибку», произошедшую с пометкой видеоролика о «приматах» и заявил, что не допустит подобного вновь. Он признал несовершенство ИИ и пообещал работать над его улучшением, заставив некоторых пользователей Facebook размышлять над темой о наивысшей ценности ИИ для жизнедеятельности человека.

рентгеновский снимок «Ликорис лучистый» (1938г., автор — доктор Дейн Л. Таскер)

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

© 2021 Елистратова Вероника On-line // Техподдержка: Elistratova.com