Про общение людей и роботов

Про общение людей с роботами есть немало забавных историй и анекдотов. Многие из них стали кинофильмами, перекочевав со страниц журналов на широкий экран. Там – на экране – роботов называют роботами, иногда даже присваивая человеческие имена. Делается это чаще всего ради шутки, пытаясь, таким образом, реализовать фантазии режиссёра и сценариста о могуществе искусственных созданий. В реальной жизни их способности гораздо скромнее и умещаются в термин «машинное обучение».

Обучение по своей сути построено на нейронных сетях, которые можно обучить для повышения их производительности и способности выполнять разные задачи. Всё, что нужно сделать — это передать системе больше информации, которую она могла бы изучать и использовать. По прошествии короткого периода времени алгоритм качественно меняется в выявлении закономерностей и даже в прогнозировании вероятности событий в ближайшем будущем.

Теперь, когда требуется о техническом изобретении с зачатком сознания рассказать серьёзным тоном, то его предпочитают называть «искусственный интеллект», намекая читателю или зрителю, что свои возможности к развитию успешно используют не только живые существа. Впрочем, знающие люди утверждают будто бы искусственного интеллекта на самом деле на Земле ещё не существует. И что человечество само достойно называться «условно-разумным», не то что присваивать категории своим изобретениям и оценивать их свысока по тем же критериям развития, которое проходит ребёнок от младенчества до взросления.

Я уверена, споры между философами, изобретателями и практиками вокруг этой темы не утихнут, пока правоведы не выработают единую стратегию защиты человечества от собственного изобретения. Как известно, на всякое философское мнение, существующее параллельно реальности, найдётся перпендикулярная объективная точка зрения человека, понимающего суть проблемы. И так как метания изобретателей в поисках совершенного творения рук человеческих закончатся судя по всему не скоро, то и знатокам права следует снаряжаться в долгую законотворческую дорогу, дабы практическим умом определить границы причинения добра человечеству.

Различия между видами технических изобретений с зачатками сознания (иначе – Искусственный интеллект, далее — ИИ) логичнее было бы делить на группы по степени их наименьшей вредоносности, ведь не зря ИИ стали сравнивать с автономным летательным оружием.

На сегодняшний день недостатка в приложениях искусственного интеллекта для оптимизации нашей жизни и управления избытком данных, как на личном, так и на корпоративном уровне, нет. Те же умные часы, которые сейчас лишь собирают данные о вашей повседневной активности, изобретатели готовы приспособить не только под сбор и анализ с помощью ИИ информации о вашем ежедневном состоянии, но и заставить составлять анамнез и прогнозировать заболевания.

На первый взгляд это кажется идеальным решением в борьбе вашего семейного терапевта против информационной перегрузки. Но это только кажется. Если заглянуть в область применения медицинских технологий дальше возможностей умных часов, то можно увидеть много поводов если не для полного запрещения применения ИИ в медицине, то для скорейшего построения законодательной базы в этой сфере в первую очередь.

В начале пандемии в 2020 году казалось, что для искусственного интеллекта в медицине пробил звёздный час. Но внезапно выясняется, что всё не так просто, и пока ещё человек, которого сначала долго учили медицине, а потом он ещё много лет практиковался в своем деле, все ещё лучше ИИ, которого обучил за пару месяцев непонятно кто на первых попавшихся данных.

Согласно научным отчётам и статьям об исследованиях, опубликованных в рецензируемых изданиях:## ИИ-инструменты практически не оказали никакого влияния в борьбе COVID-19 – отчет The Alan Turing Institute.

## Ни один из сотен ИИ-инструментов прогнозирования COVID-19 не пригоден для клинического использования — ревю в British Medical Journal.

## Ни одна из ИИ-моделей для обнаружения и прогнозирования COVID-19 с помощью рентгенограмм грудной клетки и компьютерной томографии не подходит для клинического использования из-за методологических недостатков и / или лежащих в основе систематических ошибок — ревю в Nature Machine Intelligence.

## Эта пандемия стала большим испытанием для медицинского ИИ, и он не прошел это испытание. Вместо этого, пандемия привлекла внимание к сущностным проблемам медицинского ИИ, на которые мы уже не первый год закрываем глаза — MIT TechnologyReview.

ВЫВОД №1: машинное обучение ещё не созрело для использования непрофессионалами, а хорошие специалисты по машинному обучению просто пока не работают над задачами про COVID-19. Такое мнение отлично иллюстрирует две истории ИИ из области рентгенологии, на которые следует обратить внимание всем исследователям, занимающихся проблемами ИИ в медицине.

1. Низкое качество данных (вкл. «наборы данных Франкенштейна» — когда данные из нескольких источников могут содержать дубликаты и тестирование ведётся на тех же данных, на которых ИИ-инструмент был обучен).

Например:

А) Данные сканирования грудной клетки детей, у которых не было ковида, в качестве примеров того, как выглядят случаи не-ковида. Однако, в результате ИИ научился определять не ковид, а детей.

Б) Данные сканирования включали пациентов в лежачем положении (с большей вероятностью эти пациенты были серьёзно больны). В результате ИИ научился неправильно предсказывать серьёзность риска коронавируса, исходя из положения человека (а если пациент стоял, то серьёзность поражение лёгких ИИ просто игнорировал).

В) ИИ научился ориентироваться на шрифт текста, используемый разными больницами для маркировки сканированных изображений. В результате шрифты из больниц с более серьёзной нагрузкой стали предикторами риска заражения коронавирусом.

2. Предвзятость инкорпорации (предвзятость вследствие маркировки данных)Например: Медицинские снимки помечаются в соответствии с тем, как их идентифицировал рентгенолог. Результат этого включает любые предубеждения конкретных врачей, выдавая это в наборе данных за истину (надо было бы маркировать медицинское сканирование результатом теста ПЦР, а не мнением одного врача, но этого никто не делает).

3. Почти все ИИ-инструменты разрабатываются либо исследователями ИИ, которым не хватает медицинских знаний для выявления недостатков в данных, либо медиками, которым не хватает математических навыков, чтобы компенсировать эти недостатки.

ВЫВОД №2. Фиаско ИИ против COVID-19 лишь усугубило уже понятую главную проблему медицинского ИИ – используемые ИИ-инструменты должны объяснять логику, лежащую в основе их решений. Другими словами: у медицинского ИИ вообще нет понимания на основе модели с причинно-следственными связями.

Сравним вывод о медицинском ИИ с ещё одной проблемой современности — автономное летательное оружие. Попытки ограничить право автономного оружия на самостоятельное решение об убийстве носят довольно ритуальный характер. Все понимают, что в итоге вопрос просто переведут в ту же плоскость, как это было с самонаводящимися ракетами — «решения принимают люди, а самонаведение — это всего лишь автоматизация».

И если, не дай бог, ракета ошибочно самонаведётся на жилой дом или детский сад, то это будет всего лишь ошибка инструмента, за которую винить некого (любая автоматизация невозможна без инструментальных ошибок).

Но если поставить вопрос иначе.

Можно ли допускать принятие машиной «решений последней мили» в вопросах человеческой жизни?

• И если нет, то самонаводящиеся ракеты должны быть отнесены к запрещённому оружию.

• А если это можно, то и в кейсе медицинского ИИ будет аналогично: решение, якобы, принимают люди, а ИИ — всего лишь инструмент, помогающий врачу принимать правильные решения.

Но ведь поскольку не бывает безошибочной автоматизации, инструмент может допускать ошибки. А в медицине довольно часто цена инструментальной ошибки та же, что и на войне или при борьбе с терроризмом, — жизни людей.

РЕЗЮМЕ

Сравнение кейсов медицинского ИИ и автономного оружия не случайно.

• В обоих случаях цена вопроса — жизни людей.

• И там, и там жизнь людей зависит от ошибок принятия решений инструментами автоматизации.

• И там, и там причины ошибок обычно кроются в несовершенстве инструментов, и это, увы, неизбежно.

Свести к минимуму подобные ошибки можно только двумя способами:

1. Запрещение самостоятельного принятия решений инструментам, не понимающим вопроса и выносящим решение лишь на основе статистики, не доступной анализу специалистов (т.н. “черные ящики”).

2. Полное запрещение таких инструментов.

Любой ИИ, обладающий недоступным для людей знанием, потенциально чрезвычайно опасен и потому не должен использоваться при принятии ответственных решений. В связи чем применение ИИ должно регулироваться законодательно на уровне государств.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

© 2021 Елистратова Вероника On-line // Техподдержка: Elistratova.com