Ученые исследуют новую форму взаимодействия между людьми и машинами

Ученые исследуют новую форму взаимодействия между людьми и машинами

Ученые исследуют новую форму взаимодействия между людьми и машинами

Просмотр резюме соискателей, анализ рентгеновских снимков, создание нового плейлиста - взаимодействие между людьми и машинами стало неотъемлемой частью современной жизни. В основе этих процессов у искусственного интеллекта (ИИ) лежит алгоритм принятия решений. Однако, поскольку их обычно трудно понять, они зачастую оказываются менее полезными, чем предполагалось. Ученые из Университета Падерборна и Билефельда надеются изменить это положение вещей и обсуждают улучшение объяснимости решений искусственного интеллекта и его адаптацию к потребностям пользователей-людей. Их работа недавно была опубликована в уважаемом журнале IEEE Transactions on Cognitive and Developmental Systems. Исследователи описывают объяснение как социальную практику, в которой обе стороны совместно конструируют процесс понимания.

Исследование объяснимости

«Искусственные системы стали сложными. Это уже серьезная проблема, особенно когда от решения компьютеров зависят люди», - говорит профессор Филипп Чимиано, ученый-компьютерщик из Университета Билефельда. «В частности, мы должны понимать, как принимаются машинами решения в области медицинского прогноза или правовых разбирательств», - продолжает он и отмечает, что, хотя некоторые подходы к объяснению работы таких систем уже есть, они еще не продвинулись достаточно далеко.

Профессор Катарина Рольфинг из Университета Падерборна согласна с тем, что дальнейшие действия необходимо предпринимать уже сейчас: «Люди имеют право на прозрачность алгоритмических решений. Есть веские причины, почему этот вопрос конкретно упоминается в Общем регламенте ЕС по защите данных». Цель сделать алгоритмы доступными является центральной и для так называемого «объяснимого искусственного интеллекта (XAI)»: «В исследованиях объяснимости в настоящее время основное внимание уделяется желаемым результатам прозрачности и интерпретируемости», - говорит Рольфинг, описывая последние работы на этот счет.

Понимание того, как принимаются решения

Команда, участвующая в этом исследовании, пошла еще дальше и изучает компьютерные объяснения с различных точек зрения. Они исходят из предположения, что объяснения понятны пользователям только в том случае, если они не просто им представлены, но и если в их формулировании участвуют сами пользователи: «Как мы знаем из многих повседневных ситуаций, хорошие объяснения ничего не стоят, если они не учитывают знания и опыт другого человека. Любой, кто задается вопросом, почему его резюме было отклонено неким алгоритмом, обычно не интересуется информацией о технологии машинного обучения, а вместо этого спрашивает, как обрабатывались данные с учетом его квалификации", - поясняет Рольфинг.

«Когда люди взаимодействуют друг с другом, диалог между ними гарантирует, что объяснение будет адаптировано к пониманию другого человека. Партнер по диалогу задает вопросы для дальнейшего объяснения или может выразить непонимание, которое затем разрешается. В случае диалога с искусственным интеллектом есть ограничения из-за ограниченных возможностей для взаимодействия», - продолжает Рольфинг. Чтобы решить эту проблему, лингвисты, психологи, исследователи СМИ, социологи, экономисты и компьютерные ученые тесно сотрудничают в междисциплинарной команде. Они исследуют компьютерные модели и сложные системы искусственного интеллекта, а также распределение ролей в коммуникативном взаимодействии.

Объяснение как социальная практика

Исследователи Падерборн и Билефельд разработали концептуальную основу для проектирования объяснимых систем ИИ. Ролфинг говорит: «Наш подход позволяет системам ИИ отвечать на выбранные вопросы таким образом, чтобы процесс можно было настраивать в интерактивном режиме. Таким образом, объяснение может быть адаптировано к партнеру по диалогу, а в процесс принятия решений можно включить социальные аспекты». Исследовательская группа рассматривает объяснения как последовательность действий, объединенных обеими сторонами в форме социальной практики.

Цель состоит в том, чтобы руководствоваться «строительными лесами» и «мониторингом». Эти термины изначально пришли из области исследований развития. «Проще говоря, строительные леса - это метод, при котором процессы обучения поддерживаются подсказками и инструкциями и разбиваются на части и этапы. Мониторинг означает наблюдение и оценку реакции другой стороны», - объясняет Рольфинг. Задача исследователей - применить эти принципы к системам искусственного интеллекта.

Новые формы поддержки

Этот подход направлен на расширение нынешних исследований и предоставление новых решений для социальных проблем, связанных с искусственным интеллектом. Основное предположение состоит в том, что единственный успешный способ получить понимание и дальнейшее развитие в объяснении - это вовлечь партнера по диалогу в сам процесс объяснения. По сути, речь идет об участии человека в социотехнических системах. «Наша цель - создать новые формы коммуникации с действительно объяснимыми и понятными системами искусственного интеллекта, и таким образом облегчить новые формы взаимодействия», - резюмирует Ролфинг.

Оценить статью
(0)