Перейти к публикации

Контекстно-зависимый взгляд на доверие при взаимодействии человека с (искусственными) агентами

Викуся
  • · 5 минут на чтение

Задачи, которые классически выполнялись командами человек-человек на сегодняшних рабочих местах, все чаще передаются командам человек-технология. Роль технологий играют не только классические системы поддержки принятия решений (СППР), но все больше и больше искусственный интеллект (ИИ).

1.jpg

Надёжность является ключевым фактором, влияющим на доверие к технологии. В последние десятилетия искусственный интеллект (ИИ) не только вошёл в повседневную жизнь, но и стал иметь решающее значение для рабочей среды. Специалисты в самых разных областях, таких как финансовый сектор, бухгалтерия или здравоохранение, теперь получают поддержку от нейросетей: практикующие врачи используют искусственный интеллект для скрининга рентгеновских снимков и помощи в выявлении рака, специалисты по найму получают поддержку от инновационных программных продуктов, которые находит подходящих кандидатов, банковские аналитики принимают решения о кредитах и тому подобное. В результате сотрудничество и решения, принимаемые этими командами людей, обращающихся к новым компьютерным инструментам, оказывают большое влияние на многое в нашей жизни.

В поддержке технических автоматизированных систем человека на работе нет ничего нового. Системы поддержки принятия решений (DSS - Decision support systems) десятилетиями использовались во множестве областей и имеют особое значение в области исследований взаимодействия человека и автоматизации. Они разработаны как инструмент поддержки для людей и предоставляют в отдельные моменты времени (автоматически или по запросу) определённую информацию о состоянии мира, которая может улучшить принятие обоснованных решений. Эти классические решения обычно имеют предопределённые алгоритмы и параметры, в то время как развитие искусственного интеллекта привело к появлению нового вида интеллектуальных систем, которые поддерживают деятельность людей, но постоянно обучаясь и самосовершенствуясь, благодаря глубокому машинному обучению.

ИИ имитирует человеческий интеллект, используя вычислительные алгоритмы для распознавания закономерностей в больших наборах данных. Несмотря на его нынешнюю вездесущность, существуют опасения о том, могут ли представленные технологические различия также привести к различиям в восприятии и использовании этой технологии людьми, по сравнению с классическими DSS. И насколько вся эта ситуация вообще контролируема/безопасна? Важным фактором успешного взаимодействия как в командах «человек-человек», так и в командах «человек-DSS» является доверие, которое коренным образом влияет на использование автоматизированных систем. Несоответствующий уровень уверенности/доверия в правильности функционирования может привести к серьёзным поведенческим последствиям, таким как неправильное использование (или вообще отказ от использования) искусственного разума. Чтобы подойти к этому вопросу, сначала необходимо определить различия между ИИ и классической DSS. Одним из основных отличий является способность искусственного интеллекта постоянно учиться и совершенствоваться. Вероятно, это может привести к восприятию этой технологии, как более компетентной и продвинутой экспертной системы, которая, таким образом, воспринимается как более совершенная по сравнению с классической.

Изначально свобода воли была уникальной характеристикой человека. Приписывание этой характеристики технической системе может снова способствовать восприятию повышенного превосходства ИИ над человеком, как показывают во многих футуристичеких фильмах про будущее человечества. У людей разные ожидания от разных партнёров по взаимодействию (например, человек может быть категорически против автоматизированной помощи). Точнее, люди изначально склонны ожидать, что автоматизированные средства будут работать безупречно. Это означает, что они переоценивают надёжность автоматизированных средств, что является эффектом, называемым идеальной схемой автоматизации. Напротив, предполагается, что поддержка решений со стороны другого человека воспринимается как менее надёжная, поскольку человек всегда осознаёт и принимает свою склонность к ошибкам. Глядя на различия между ИИ и классической алгоритмичной системой, эта идеальная схема автоматизации может быть более ярко выражена для первого искусственного агента, потому что его можно легче рассматривать как большую экспертную систему (что может оказаться глобальной ошибкой - ведь с какого-то момента «что-то может пойти не так…»).

Однако необходимо учитывать не только фактическую (объективную), но и субъективно воспринимаемую надёжность вспомогательных систем. Это связано с тем, что воспринимаемая может отличаться от фактической и, поэтому, может привести к неприятным инцидентам. С точки зрения предполагаемой и фактической надёжности, идеальная схема автоматизации предполагает, что люди имеют разные первоначальные ожидания относительно фактической стабильности различных вспомогательных систем. Принимая во внимание осведомлённость о том, насколько люди склонны к ошибкам, поддержка принятия решений, предоставляемая людьми (например, совет коллеги), как правило, считается несовершенной и, следовательно, достоверной менее чем на 100%. Напротив, от технических систем и, в частности, от автоматизированных вспомогательных систем, ожидают гораздо большего. Тем более, что разработаны различные инструкции, которые часто дают людям представления об ошибках в системе. Следовательно, это может привести к различным ожиданиям, когда речь идёт о надёжности средств помощи человеку, по сравнению с автоматизированными средствами, независимо от объективного положения дел. Более того, другие факторы, помимо воспринимаемого доверия, такие как репутация агента искусственного разума и отношение к нему, также могут влиять на степень доверия людей к технологиям в целом.

При решении вопросов доверия различных агентов поддержки принятия решений, необходимо дополнительно учитывать, что люди не только работают вместе с такими агентами, но и могут сами быть оценены ими - например, вторые стороны — это кандидаты на работу, которых оценивают автоматизированные системы, или пациенты, которым автоматические системы ставят диагноз. В частности, возникает вопрос, существуют ли другие требования к правильности при оценке человеком, в отличие от технической системы. В то время как предполагаемое технологическое превосходство должно формировать наше представление о требуемой достоверности, с точки зрения консультанта, оно вполне может отличаться от точки зрения человека, которого система оценивает. Характерно, что учёные обнаружили забавный факт: хотя люди предпочли бы сами использовать определённый тип искусственного интеллекта при найме сотрудников, они не хотели бы, чтобы эту технологию использовали при оценке их личности. В то время как предполагаемая склонность к ошибкам человека может быть компенсирована человеком при взаимодействии в условиях сотрудничества, она имеет потенциально радикально-негативное восприятие последствий при исключительной автоматизированной оценке.

Но негативное восприятие резко снижается, если исследовать особенности задачи и контекст, в котором происходит взаимодействие. Люди позитивно воспринимают действия автоматизированных систем, которые поддерживают некоторые (визуальные) задачи обнаружения (например, досмотр багажа). Эти задачи обычно имеют непосредственно поддающиеся количественной оценке результаты и могут восприниматься как соответствующие возможностям автоматизированной системы лучше, чем человеку. Это может быть возможным объяснением идеальной схемы автоматизации. В настоящее время неясно, будет ли это справедливо для задач, которые являются более субъективными и считаются основанными в большей степени на человеческой интуиции.

  • Нравится 1
  • 0
  • 1 823

0
1,8k
  • Нравится 1

Войти

У вас нет аккаунта? Регистрация

  • Не рекомендуется на общедоступных компьютерах
  • Забыли пароль?

  • Создать...